Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Inferencia Estadística
No observamos toda la
Objetivo de la Estadística: población
1. Aprender de lo observado
2. Generalizar lo aprendido sobre una
característica en una muestra a una
población
Sólo observamos
una muestra
6.1. Inferencia estadı́stica
• La INFERENCIA se llama PARAMÉTRICA si la distribución de probabilidad de la población es
conocida salvo los valores que toman ciertos coeficientes llamados parámetros.
En este caso, la información muestral se utilizará para extraer conclusiones sobre uno o varios de esos
parámetros.
Inferencia Paramétrica
¿Qué nos interesa conocer? características
Parámetros numéricas de
! Media poblacional una población
! Varianza poblacional Si un parámetro es desconocido le asignamos
! Percentiles poblacionales… un valor aproximado a partir de los datos
! Otras medidas de una muestra (Estimación de un parámetro)
poblacionales…
5.1. Introducción
¿Cómo hacemos esto? Elegimos una muestra
Sobre la población
estudiamos una
característica X
X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 ….. Xn
6.2. Muestra aleatoria simple
Una muestra aleatoria simple de tamaño n de una variable aleatoria X , ( M.A.S. ) es un conjunto
ordenado de n variables aleatorias independientes, X1 , X2 , . . . , Xn , cuyas leyes de probabilidad son
iguales a la que sigue X.
Este concepto representa el conjunto de los datos que podrán observarse en los individuos de una muestra
particular de la población, antes de tomarla.
Se llama observación o realización de una M.A.S. X1 , X2 , . . . , Xn , al conjunto ordenado x1 , x2 , . . . , xn
de los valores observados en los n individuos de una muestra particular.
Una estimación de un parámetro es el valor numérico que se obtiene al aplicar un estimador a los datos
de una muestra dada.
Ejemplos:
Los estimadores utilizados en la inferencia sobre la media de una ley normal son:
Pn
Xi
La media muestral: µ̂ = X̄ = i=1
n
Pn
(X i X̄)2
La cuasivarianza muestral: 2
s =ˆ = 2 i=1
n 1
rP
n 2
(X i X̄)
La cuasidesviación tı́pica o estandar muestral: s= ˆ = i=1
n 1
6.4. Estimación puntual y estimación por intervalo
Estimación de un parámetro
Propiedad 1 Supongamos que se tiene un número grande de muestras de una población, todas ellas del
mismo tamaño n. Sobre cada muestra el estimador nos ofrece una estimación concreta del parámetro
que buscamos.
Distribución muestral de
Serı́a deseable que
el valor medio de dichas
insesgado E("ˆ ) = "
estimaciones coincida Sesgo "ˆ
( ) = E "ˆ
( )#"
con el valor del parámetro
sesgado !
que se desea conocer.
!
Un estimador que verifique !
esta propiedad se dice que
Bien estimado
es centrado o insesgado.
En el caso de no
Mal estimado
verificarla se dice ! E("ˆ ) # "
que es un estimador sesgado
6.4. Estimación puntual. Propiedades
Propiedad 2 Que el estimador tenga mı́nima varianza
✓ˆ1 es mejor estimador
porque posee menor varianza
El estimador El estimador
es preciso e es sesgado y
Distribución insesgado Distribución no preciso
muestral de muestral de
^
!^1!^^2!^^5 !^6^!3
!7!2!^!4 !^6 !^11 !^ !^10 !^4 !^3 !^1 !^ !^5 !^9 !^7 !
!8 8 2
2
X̄ ⇠ N (µ, )
n
2
• Si X1 , . . . , Xn es una muestra aleatoria de una variable X que tiene de media µ y de varianza y
n es suficientemente grande (usualmente n > 30), entonces
2
X̄ ⇠ N (µ, )
n
6.4. Estimación puntual. Ejemplos
• En Resumen: la media muestral X̄ de una muestra aleatoria de tamaño n de una variable X tiene una
ley de probabilidad con la misma media que X y con una varianza que es n veces menor que la varianza
de X.
• La utilidad práctica de esta propiedad es que las medias muestrales son estimaciones centradas de la
verdadera media de la población, con tanta mayor precisión cuanto mayor sea el tamaño muestral.
2
Ejemplo2: El estimador puntual de la varianza es la cuasivarianza muestral
2
1 Pn
s = i=1 (Xi X̄)2
n 1
número de éxitos
p̂ =
tamaño muestral
p(1 p)
Si n es suficientemente grande, p̂ sigue una ley normal N p,
n
INTERVALO DE CONFIANZA
Los estimadores por intervalo proporcionan uno o dos valores que definen un intervalo donde se espera
encontrar el parámetro con una probabilidad fijada, (1 ↵) antes de observar una muestra; es decir, un
rango de valores creibles para un determinado parámetro.
Esta credibilidad se mide en términos probabilı́sticos.
Se llama coeficiente o nivel de confianza de un intervalo al porcentaje 100(1 ↵) de las muestras en
cuyos intervalos estará contenido el parámetro.
6.5. Intervalos de confianza
2
De una población de sujetos con media µ y varianza
se seleccionan muchas muestras
(x11 , x2 1 . . . x1n ) (x21 , x2 2 . . . x2n ) (x31 , x2 3 . . . x3n ) (xm m m
1 , x2 . . . xn )
x̄1 x̄2 x̄3 x̄m
se dibuja la distribución muestral y se construye un intervalo centrado en µ que contenga una probabilidad
(1 ↵). De las medias muestrales anteriores
sólo una pequeña parte de ellas ↵%
se situarán fuera de ese intervalo.
Sobre cada una de ellas se construye
1�Α
un intervalo de la misma amplitud
Normal�Μ,
Σ
�
n
que el centrado en la µ.
Si la x̄1 está en el intevalo anterior
Α�2 Α�2
x2
x1
la contendrá x4
x3
6.5. Intervalos de confianza
¿CÓMO SE INTERPRETA EL INTERVALO DE CONFIANZA?
Para una muestra concreta, un intervalo de confianza es uno fijo elegido de entre todos los posibles
intervalos que se pueden construir centrados en las medias muestrales.
Una vez construido un intervalo con una muestra dada, el intervalo contendrá al parámetro µ o no lo
contendrá, a nosotros sólo nos queda la confianza de que ese intervalo sea uno de los que contienen el
valor del parámetro.
donde z1 ↵/2 es el valor de la Normal(0,1) que deja a su derecha una probabilidad igual a 1 ↵/2es
decir, el percentil de orden 100 · (1 ↵/2)% de la normal estándar.
Casos particulares: Para ↵ = 0.1 se tiene que z0.95 = 1.65
Para ↵ = 0.05 se tiene que z0.975 = 1.96
Para ↵ = 0.01 se tiene que z0.995 = 2.58
6.5. Intervalos de confianza
En la mayorı́a de los estudio se desconoce el valor de por lo que debe estimarse la varianza poblacional
mediante s2 y el error de muestro asociado a la media muestral es
p
ε̂= s/ n
El valor de es fijo, no ası́ el valor de s que es variable porque depende de la muestra elegida.
Para paliar la inexactitud que se ha introducido en el cálculo de la amplitud del intervalo, se sustituye el
valor de z1 ↵/2 por un valor ligeramente superior tn 1,1 ↵/2 , que es el percentil de orden 100(1 ↵/2)%
de la ley t de Student con un número de grados de libertad igual al denominador de s2 .
El percentil de orden 100(1 ↵/2)% es el valor de la variable aleatoria, distribuida según una t de
Student con n 1 grados de libertad, que deja a su izquierda una probabilidad igual a 1 ↵/2.
Representación gráfica de las leyes tn de Student.
La función de densidad de una t de Student con n grados de libertad, tn , es positiva para todos los
números reales; el eje OX es una ası́ntota horizontal.
Es simétrica respecto del eje de ordenadas, por lo que la media, la moda y la mediana son iguales a cero,
salvo en la t con un grado de libertad, t1 , que no posee media.
0.4
0.3
t t t t t
Leyes 1 , 6 , 19 , 30 , 60
0.2
0.1
�4 �2 2 4
Percentiles de la ley tn
En la ley tn , los percentiles P100↵ y P100(1 ↵) se notan tn,↵ y tn,1 ↵ y son los valores de la
variable aleatoria, distribuida según una t de Student con n grados de libertad, que dejan a su izquierda
una probabilidad igual a ↵ y 1 ↵ respectivamente.
Por la simetrı́a de la tn respecto de 0, estos percentiles cumplen la igualdad
tn,↵ = tn,1 ↵
Las siguientes gráficas muestran los percentiles 10 y 90 de una distribución
t- Student con n = 9 grados de libertad.
0.9 0.9
0.1 0.1
!1.383 1.383
0.2
Para grados de libertad grandes,
ambas gráficas son prácticamente
iguales.
0.1
�4 �2 2 4
6.5. Intervalos de confianza
Si n < 30, tn 1,1 ↵/2 es mayor que z1 ↵/2 por lo que la amplitud del intervalo es mayor, y se contrarresta
la incertidumbre debida al desconocimiento de , que es mayor a menor tamaño muestral.
Para n 30 los valores z1 ↵/2 y tn 1,1 ↵/2 son prácticamente iguales.
z0.95 t2,0.95
Funciones de densidad y percentil de orden 95% Funciones de densidad y percentil de orden 95%
de las distribuciones N(0,1) y 2t t
de las distribuciones N(0,1) y 13
6.5. Intervalos de confianza
Por tanto :
• Si X es una variable normal con varianza conocida, 2 , para tener una probabilidad 1 ↵ de que el
error X̄ µ en la estimación de µ sea inferior a un número dado , se necesita un tamaño
1
n 2
2
z1 (↵/2)
2
• Si no se conoce la varianza de X, puede estimarse mediante la cuasivarianza s2 , pero tanto ésta como
los percentiles de la t de Student dependen del tamaño muestral.
Por eso, para hallar ese tamaño mı́nimo, debe calcularse una estimación s20 de 2 mediante una muestra
previa de pequeño tamaño.
Una vez calculado s20 , el tamaño necesario para estimar la media se obtiene mediante la desigualdad
siguiente, redondeando al entero superior más próximo.
1
n s2
2 0
z1 (↵/2)
2
6.6. Contrastes de hipótesis
Un contraste de hipótesis es un método estadı́stico que confronta los resultados conseguidos empı́ricamente
mediante una recogida de datos respecto a una hipótesis de la que se parte, y toma una decisión sobre si
los datos apoyan o no apoyan esta hipótesis.
Se llama hipótesis nula (H 0 ) a la que defiende un modelo establecido. Es la hipótesis que contrastamos.
Los datos pueden refutarla, pero no deberı́a ser rechazada sin una buena razón porque las consecuencias
pueden ser graves.
Se llama hipótesis alternativa (H 1 ) a la que discute la validez del modelo, es decir, niega a H 0 .
Los datos pueden mostrar evidencia a su favor, pero no debe ser aceptada sin una gran evidencia a su
favor.
Hipótesis nulas: H0 : µ = µ0 , H0 : µ µ0 o H0 : µ µ0
Hipótesis alternativas: H1 : µ 6= µ0 , H1 : µ > µ0 o H1 : µ < µ0
• Si se conoce la varianza, 2
:
el estadı́stico de contraste es
X̄ µ0
Z= p , que sigue la ley N (0, 1) si H 0 es cierta.
2 /n
• Si no se conoce la varianza
Contraste bilateral: H0 : µ = µ0 ; H1 : µ 6= µ0
tn�1
Α�2 Α�2
�tn�1,1� Α tn�1,1� Α
2 2
Región de Región de Región de
rechazo aceptación rechazo
tn�1 tn�1
t experimental
No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis
Ejemplo: En un proceso de producción, la longitud de los artı́culos producidos se modeliza según una
ley normal de media µ y varianza 2 desconocidas.
En condiciones de funcinamiento correcto, se espera que la longitud media de los artı́culos sea de 50mm.
Para comprobar la calidad, se decide tomar una muestra de 10 artı́culos que resultan tener una longitud
media de 51mm y varianza muestral de 1.
Basándonos en esta muestra, ¿qué podemos decir acerca del funcionamiento del proceso?
Planteamos el siguiente contraste de hipótesis:
H0 : µ = 50
H1 : µ 6= 50
Los valores crı́ticos son los percentiles de órdenes 100 · ↵/2% y 100 · (1 ↵/2)%, es decir, la región
de rechazo está formada por los valores menores que tn 1,1 ↵/2 = t9,0.975 = 2.262 y mayores que
tn 1,1 ↵/2 = t9,0.975 = 2.262 .
51 50
Basándonos en la muestra, el valor de texp = p = 3.162
1/10
Puesto que texp pertenece a la región de rechazo, rechazamos H0 .
6.6. Contrastes de hipótesis
tn�1
tn�1,1�Α
Región de Región de
aceptación rechazo
tn�1 tn�1
t experimental
t experimental Α Α
tn�1,1�Α tn�1,1�Α
Región de Región de Región de Región de
aceptación rechazo aceptación rechazo
No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis
tn�1
�tn�1,1�Α
Región de Región de
rechazo aceptación
tn�1 tn�1
Α t experimental
Α t experimental
�tn�1,1�Α �tn�1,1�Α
Región de Región de Región de Región de
rechazo aceptación rechazo aceptación
No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis
RESULTADO DE UN CONTRASTE
Una vez tomada la muestra, se deducirá de ella un valor del estadı́stico de contraste y se comprobará si
está o no en la región crı́tica correspondiente al nivel de significación α fijado.
Si el valor del estadı́stico de contraste está en la región crı́tica, se rechaza H 0 y se dice que el contraste
ha sido significativo al nivel α.
Si el valor del estadı́stico de contraste no está en la región crı́tica, no se rechaza H 0 y se dice que el
contraste no ha sido significativo al nivel α.
6.6. Contrastes de hipótesis
(5) Sustituir los estimadores muestrales en el estadı́stico de contraste y situar el valor obtenido en la
gráfica.
(6) Rechazar H 0 si el valor se sitúa en la región de rechazo.
En caso contrario no rechazarla.
6.6. Contrastes de hipótesis
Comentarios sobre los intervalos de confianza y los contrastes de hipótesis
• Los contrastes de hipótesis sólo indican si hay o no hay diferencia estadı́sticamente significativa entre el
valor de la hipótesis nula y el valor obtenido a partir de los datos muestrales.
• La información que proporcionan los intervalos de confianza complementa la dada por los contrastes
de hipótesis, indicando no sólo si hay diferencias significativas, sino entre qué valores se sitúa esta
diferencia.
Por tanto,
Siempre existe un riesgo de cometer uno de estos errores y es imposible disminuir el riesgo de caer en
uno de ellos sin aumentar el riesgo de caer en el otro. Para disminuir a la vez las dos probabilidades de
error, tiene que aumentarse el tamaño de la muestra.
El nivel de significación de un contraste es un número, α < 0.5, que indica el lı́mite superior de la
probabilidad de cometer un error de tipo I.
Se elige a voluntad y sirve para limitar el riesgo de cometer un error de tipo I.
Los niveles de significación más comunes son 0.1, 0.05, 0.01, 0.005, y 0.001.
A la probabilidad de cometer un errorh de tipo II se le suele denotar
i con la letra griega .
= P Aceptar H0 H0 es falsa
6.6. Contrastes de hipótesis
Β Α
Región de Región de
aceptación rechazo
H0 H1 H0 H1
Β Α Β Α
tn�1 tn�1
p�valor�2 p�valor�2
t experimental
Α�2 Α�2
p�valor�2 p�valor�2
Α�2 t experimental Α�2
� �t exp� �t exp�
tn�1 tn�1
p�valor t�experimental Α
t experimental Α p�valor
t exp t exp
Región de Región de Región de Región de
aceptación rechazo aceptación rechazo
tn�1 tn�1
p�valor
Α
Α
p�valor
t experimental t experimental
• El rechazo de la hipótesis nula no permite dar una conclusión en sentido causal, el rechazo puede ser
debido a otros factores que no aparecen explı́citamente en el estudio.
• Un resultado no significativo solo indica que es compatible con la hipótesis nula porque la discrepancia
observada es pequeña.
• Decir que un contraste es “estadı́sticamente no significativo” no demuestra que la hipótesis nula sea cierta
y no es equivalente a hipótesis nula demostrada.
• No significativo indica que los datos no consiguen aportar suficientes pruebas para dudar de la credibilidad
de la hipótesis nula. De hecho la hipótesis puede ser falsa, pero no lo hemos detectado por haber realizado
un estudio con una muestra demasiado pequeña.
• No se debe “aceptar” la hipótesis nula porque implica una afirmación de la validez de la hipótesis nula.
• Un resultado estadı́sticamente significativo indica que no es compatible con H 0 porque ésta es poco
creible.
• El término muy significativo se utiliza para indicar que H 0 es poco creible. No es indicativo de la
importancia clı́nica del estudio.
• Los estudios con muestras muy pequeñas tienden a dar resultados estadı́sticamente no significativos.
• Los estudios con muestras muy grandes tienden a dar resultados estadı́sticamente significativos.