Está en la página 1de 49

TEMA 6: Inferencia estadı́stica

6.1.– Inferencia estadı́stica


6.2.– Muestra aleatoria simple
6.3.– Estadı́sticos muestrales
6.4.– Estimación puntual. Propiedades. Ejemplos
6.5.– Estimación por intervalo
6.6.– Contrastes de hipótesis
6.1. Inferencia estadı́stica
LA INFERENCIA ESTADÍSTICA es el conjunto de métodos estadı́sticos que sirven
para extraer de los datos de una muestra toda la información posible sobre la variable aleatoria de la
que procede y de su ley de probabilidad.

Inferencia Estadística
No observamos toda la
Objetivo de la Estadística: población
1. Aprender de lo observado
2. Generalizar lo aprendido sobre una
característica en una muestra a una
población

Sólo observamos
una muestra
6.1. Inferencia estadı́stica
• La INFERENCIA se llama PARAMÉTRICA si la distribución de probabilidad de la población es
conocida salvo los valores que toman ciertos coeficientes llamados parámetros.

En este caso, la información muestral se utilizará para extraer conclusiones sobre uno o varios de esos
parámetros.

• La INFERENCIA se llama NO PARAMÉTRICA si la distribución de probabilidad poblacional es


totalmente desconocida y sobre ella se realizan suposiciones generales (es una distribución continua,
tiene una única moda...)
En este caso, la información muestral se utilizará para extraer conclusiones sobre alguna propiedad de
la distribución de X, o para decidir si una distribución dada es compatible con las observaciones.

NOTA: En este curso sólo estudiaremos técnicas de inferencia paramétrica.


6.1. Introducción

Inferencia Paramétrica
¿Qué nos interesa conocer? características
Parámetros numéricas de
! Media poblacional una población
! Varianza poblacional Si un parámetro es desconocido le asignamos
! Percentiles poblacionales… un valor aproximado a partir de los datos
! Otras medidas de una muestra (Estimación de un parámetro)
poblacionales…
5.1. Introducción
¿Cómo hacemos esto? Elegimos una muestra

Sobre la población
estudiamos una
característica X

Muestra Aleatoria Simple


(M.A.S.)

X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 ….. Xn
6.2. Muestra aleatoria simple

Una muestra aleatoria simple de tamaño n de una variable aleatoria X , ( M.A.S. ) es un conjunto
ordenado de n variables aleatorias independientes, X1 , X2 , . . . , Xn , cuyas leyes de probabilidad son
iguales a la que sigue X.
Este concepto representa el conjunto de los datos que podrán observarse en los individuos de una muestra
particular de la población, antes de tomarla.
Se llama observación o realización de una M.A.S. X1 , X2 , . . . , Xn , al conjunto ordenado x1 , x2 , . . . , xn
de los valores observados en los n individuos de una muestra particular.

Se llama estadı́stico a cualquier operación o conjunto de operaciones


T (X1 , X2 , . . . , Xn ) (suma, multiplicación, ordenación, etc) que se define sobre las variables de una
muestra aleatoria.
Por ejemplo
Pn Pn 2 Pn Pn 2
Pn
i=1 X i ; i=1 X i ; i=1 X i /n ; i=1 (X i X̄) ; i=1 (X i X̄)2 /n 1
6.3. Estadı́sticos muestrales
Cuando las variables de la muestra aleatoria toman unos valores x1 , x2 , . . . , xn el estadı́stico toma un
valor concreto, t = T (x1 , x2 , . . . , xn ), . Este valor t se llama valor observado del estadı́stico T .
El valor de un estadı́stico depende de la muestra elegida.
Un estadı́stico es una variable aleatoria, que tiene su propia ley de probabilidad. Esta ley de probabilidad
puede depender de varios factores:
Las operaciones que definen el estadı́stico.
El tamaño de la muestra ( grados de libertad ).
La distribución de probabilidad de las X i ( sólo en el caso en que se conozca).
Ejemplo 1: Sean X1 , X2 , . . . , Xn , n v.a. independientes. Todas igualemente distribuidas: Xi ⇠ N (µ, )
para todo i = 1, . . . , n. Entonces
n
X Pn
p i=1 Xi
Xi ⇠ N (nµ, n) y ⇠ N (µ, p )
i=1
n n

Ejemplo 2: Sean X1 , X2 , . . . , Xn , n v.a. independientes. Todas igualemente distribuidas: Xi ⇠ Ber(p)


para todo i = 1, . . . , n. Entonces
n
X
Xi ⇠ B(n, p)
i=1
6.3. Estadı́sticos muestrales
Uno de los objetivos de la inferencia paramétrica es deducir de las muestras una aproximación al verdadero
valor de algún parámetro desconocido de la distribución de la variable X.
Un estimador de un parámetro es un estadı́stico cuyo conjunto de valores coincide con el conjunto de
valores del parámetro considerado.

Una estimación de un parámetro es el valor numérico que se obtiene al aplicar un estimador a los datos
de una muestra dada.
Ejemplos:
Los estimadores utilizados en la inferencia sobre la media de una ley normal son:
Pn
Xi
La media muestral: µ̂ = X̄ = i=1
n
Pn
(X i X̄)2
La cuasivarianza muestral: 2
s =ˆ = 2 i=1
n 1
rP
n 2
(X i X̄)
La cuasidesviación tı́pica o estandar muestral: s= ˆ = i=1
n 1
6.4. Estimación puntual y estimación por intervalo

Estimación de un parámetro

Estimación puntual Estimación por intervalos

proporcionan dos valores que


proporcionan un solo
intentan acotar la región
número como aproximación
donde se encuentra el
al valor del parámetro
parámetro con una
probabilidad fijada, antes de
elegir la muestra
Hay tantas estimaciones
como muestras se Nivel de confianza de un intervalo es
el porcentaje 100(1-!) de las
puedan elegir
muestras en cuyos intervalos estará
contenido el parámetro.

Una vez construido un intervalo con una


muestra dada, sólo queda la confianza
de que ese intervalo sea uno de los que
contienen el valor del parámetro
6.4. Estimación puntual. Propiedades
Se pueden proponer varios estimadores para un mismo parámetro. ¿Cuál elegimos?
PROPIEDADES DE LOS ESTIMADORES PUNTUALES

Propiedad 1 Supongamos que se tiene un número grande de muestras de una población, todas ellas del
mismo tamaño n. Sobre cada muestra el estimador nos ofrece una estimación concreta del parámetro
que buscamos.

Distribución muestral de
Serı́a deseable que
el valor medio de dichas
insesgado E("ˆ ) = "
estimaciones coincida Sesgo "ˆ
( ) = E "ˆ
( )#"
con el valor del parámetro
sesgado !
que se desea conocer.
!
Un estimador que verifique !
esta propiedad se dice que
Bien estimado
es centrado o insesgado.
En el caso de no
Mal estimado
verificarla se dice ! E("ˆ ) # "
que es un estimador sesgado
6.4. Estimación puntual. Propiedades
Propiedad 2 Que el estimador tenga mı́nima varianza
✓ˆ1 es mejor estimador
porque posee menor varianza

Un estimador es de mı́nima varianza


cuando su varianza es la menor
posible dentro de la clase de
estimadores que se esté
!^1 considerando.

Mientras menor sea la varianza


^! más preciso, será el estimador, es
2
decir más próximas estarán entre sı́
las estimaciones que produce.
6.4. Estimación puntual. Propiedades
Pero, ni un estimador preciso tiene que ser insesgado, ni uno insesgado tiene necesariamente que ser preciso.

Distribución muestral de El estimador


es preciso pero
sesgado
El estimador
es insesgado
Distribución muestral pero no preciso
de

!^1!^9!^3 !^8 !^4!^5 !^10!^7 !^2 !^6


!^1!^^3!^2 ! !
!4
6.4. Estimación puntual. Propiedades

El estimador El estimador
es preciso e es sesgado y
Distribución insesgado Distribución no preciso
muestral de muestral de

^
!^1!^^2!^^5 !^6^!3
!7!2!^!4 !^6 !^11 !^ !^10 !^4 !^3 !^1 !^ !^5 !^9 !^7 !
!8 8 2

B Un buen estimador debe ser insesgado y lo más preciso posible


EJEMPLOS DE ESTIMADORES PUNTUALES
2
Sea X1 , . . . , Xn una muestra aleatoria de una variable X que tiene de media µ y de varianza :
1 Pn
Ejemplo1: El estimador puntual de µ es la media muestral: X̄ = Xi
n i=1
que es un estimador insesgado y el más preciso de la media µ
PROPIEDADES DE LA MEDIA MUESTRAL
2
• Si X1 , . . . , Xn es una muestra aleatoria de una variable X que tiene de media µ y de varianza ,
entonces
2
X̄ sigue una distribución con media µ y varianza
n
2
• Si X1 , . . . , Xn es una muestra aleatoria de una variable X ⇠ N (µ, ) entonces

2
X̄ ⇠ N (µ, )
n

2
• Si X1 , . . . , Xn es una muestra aleatoria de una variable X que tiene de media µ y de varianza y
n es suficientemente grande (usualmente n > 30), entonces

2
X̄ ⇠ N (µ, )
n
6.4. Estimación puntual. Ejemplos
• En Resumen: la media muestral X̄ de una muestra aleatoria de tamaño n de una variable X tiene una
ley de probabilidad con la misma media que X y con una varianza que es n veces menor que la varianza
de X.
• La utilidad práctica de esta propiedad es que las medias muestrales son estimaciones centradas de la
verdadera media de la población, con tanta mayor precisión cuanto mayor sea el tamaño muestral.

2
Ejemplo2: El estimador puntual de la varianza es la cuasivarianza muestral

2
1 Pn
s = i=1 (Xi X̄)2
n 1

es un estimador insesgado y de mı́nima varianza para la varianza poblacional 2 .


q
Aε= 2
/n se le llama error tı́pico o error estandar de estimación de la media.
p
Si no se conoce σ, este error tı́pico se estima por ε̂= s2 /n
6.4. Estimación puntual. Ejemplos
Ejemplo 3: El estimador puntual de la proporción poblacional p es la proporción muestral muestral,

número de éxitos
p̂ =
tamaño muestral

es un estimador insesgado y de mı́nima varianza de la proporción poblacional, p,

p(1 p)
Si n es suficientemente grande, p̂ sigue una ley normal N p,
n

Ejemplo 4: El estimador puntual de es

ˆ = número de ocurrencias en cada unidad muestral


tamaño muestral

ˆ es un estimador insesgado y de mı́nima varianza de la media poblacional de una ley de Poisson, ,


Si n es suficientemente grande, ˆ sigue una ley normal N , /n
6.5. Intervalos de confianza
Siempre que se haga una estimación puntual, ésta debe ir acompañada de su correspondiente error de
muestreo para indicar las posibles discrepancias entre el valor estimado y el valor real.
Para ello se construye un intervalo alrededor del valor estimado que se llama

INTERVALO DE CONFIANZA

Los estimadores por intervalo proporcionan uno o dos valores que definen un intervalo donde se espera
encontrar el parámetro con una probabilidad fijada, (1 ↵) antes de observar una muestra; es decir, un
rango de valores creibles para un determinado parámetro.
Esta credibilidad se mide en términos probabilı́sticos.
Se llama coeficiente o nivel de confianza de un intervalo al porcentaje 100(1 ↵) de las muestras en
cuyos intervalos estará contenido el parámetro.
6.5. Intervalos de confianza

2
De una población de sujetos con media µ y varianza
se seleccionan muchas muestras
(x11 , x2 1 . . . x1n ) (x21 , x2 2 . . . x2n ) (x31 , x2 3 . . . x3n ) (xm m m
1 , x2 . . . xn )
x̄1 x̄2 x̄3 x̄m

se dibuja la distribución muestral y se construye un intervalo centrado en µ que contenga una probabilidad
(1 ↵). De las medias muestrales anteriores
sólo una pequeña parte de ellas ↵%
se situarán fuera de ese intervalo.
Sobre cada una de ellas se construye
1�Α
un intervalo de la misma amplitud
Normal�Μ,
Σ

n

que el centrado en la µ.
Si la x̄1 está en el intevalo anterior
Α�2 Α�2

anterior, el intervalo centrado en ella


Σ Σ
Μ � z1� Α
2
n
x1 Μ x3
contiene a µ, en caso contrario no
x2
n
z1� Α � Μ
2
x4

x2
x1
la contendrá x4
x3
6.5. Intervalos de confianza
¿CÓMO SE INTERPRETA EL INTERVALO DE CONFIANZA?

Para una muestra concreta, un intervalo de confianza es uno fijo elegido de entre todos los posibles
intervalos que se pueden construir centrados en las medias muestrales.
Una vez construido un intervalo con una muestra dada, el intervalo contendrá al parámetro µ o no lo
contendrá, a nosotros sólo nos queda la confianza de que ese intervalo sea uno de los que contienen el
valor del parámetro.

INTERVALO DE CONFIANZA DE NIVEL 100(1 ↵)% DE µ EN UNA LEY NORMAL


2
Sea X1 , . . . , Xn es una muestra aleatoria de una variable X ⇠ N (¿·?, )
(1) Como se conoce la varianza, 2 , de la ley normal, el intervalo de confianza es
✓ q q ◆
n · z1 ↵/2 , x̄ + n · z1 ↵/2
2 2

donde z1 ↵/2 es el valor de la Normal(0,1) que deja a su derecha una probabilidad igual a 1 ↵/2es
decir, el percentil de orden 100 · (1 ↵/2)% de la normal estándar.
Casos particulares: Para ↵ = 0.1 se tiene que z0.95 = 1.65
Para ↵ = 0.05 se tiene que z0.975 = 1.96
Para ↵ = 0.01 se tiene que z0.995 = 2.58
6.5. Intervalos de confianza

En la mayorı́a de los estudio se desconoce el valor de por lo que debe estimarse la varianza poblacional
mediante s2 y el error de muestro asociado a la media muestral es

p
ε̂= s/ n
El valor de es fijo, no ası́ el valor de s que es variable porque depende de la muestra elegida.

Para paliar la inexactitud que se ha introducido en el cálculo de la amplitud del intervalo, se sustituye el
valor de z1 ↵/2 por un valor ligeramente superior tn 1,1 ↵/2 , que es el percentil de orden 100(1 ↵/2)%
de la ley t de Student con un número de grados de libertad igual al denominador de s2 .
El percentil de orden 100(1 ↵/2)% es el valor de la variable aleatoria, distribuida según una t de
Student con n 1 grados de libertad, que deja a su izquierda una probabilidad igual a 1 ↵/2.
Representación gráfica de las leyes tn de Student.
La función de densidad de una t de Student con n grados de libertad, tn , es positiva para todos los
números reales; el eje OX es una ası́ntota horizontal.
Es simétrica respecto del eje de ordenadas, por lo que la media, la moda y la mediana son iguales a cero,
salvo en la t con un grado de libertad, t1 , que no posee media.
0.4

0.3

t t t t t
Leyes 1 , 6 , 19 , 30 , 60

0.2

0.1

�4 �2 2 4
Percentiles de la ley tn
En la ley tn , los percentiles P100↵ y P100(1 ↵) se notan tn,↵ y tn,1 ↵ y son los valores de la
variable aleatoria, distribuida según una t de Student con n grados de libertad, que dejan a su izquierda
una probabilidad igual a ↵ y 1 ↵ respectivamente.
Por la simetrı́a de la tn respecto de 0, estos percentiles cumplen la igualdad
tn,↵ = tn,1 ↵
Las siguientes gráficas muestran los percentiles 10 y 90 de una distribución
t- Student con n = 9 grados de libertad.

0.9 0.9
0.1 0.1

!1.383 1.383

t9, 0.10 =Percentil 10 t9, 0.90 = Percentil 90


Comparación de algunas leyes tn de Student y ley normal(0,1)
0.4

La gráfica de la función de densidad


de una t de Student con n grados
de libertad, tn , es parecida a la de
0.3 la distribución norma estándar salvo
t t t t t
Leyes 1 , 6 , 19 , 30 , 60 que tiene colas más altas que ésta,
y N(0, 1) (linea discontı́nua) por lo que se suele decir que la tn
es más robusta que la normal.

0.2
Para grados de libertad grandes,
ambas gráficas son prácticamente
iguales.

0.1

�4 �2 2 4
6.5. Intervalos de confianza

Si n < 30, tn 1,1 ↵/2 es mayor que z1 ↵/2 por lo que la amplitud del intervalo es mayor, y se contrarresta
la incertidumbre debida al desconocimiento de , que es mayor a menor tamaño muestral.
Para n 30 los valores z1 ↵/2 y tn 1,1 ↵/2 son prácticamente iguales.

z0.95 t2,0.95

Funciones de densidad y percentil de orden 95% Funciones de densidad y percentil de orden 95%
de las distribuciones N(0,1) y 2t t
de las distribuciones N(0,1) y 13
6.5. Intervalos de confianza

Por tanto :

(2) Si no se conoce la varianza poblacional, se estima mediante, s 2 , y se construye el intervalo


✓ q q ◆
x̄ s ·t
2
, x̄ + s ·t
2
n n 1,1 ↵/2 n n 1,1 ↵/2

Nota 1: Si n > 30 el valor de tn 1,↵/2 puede ser sustituido por el de z1 ↵/2


6.5. Intervalos de confianza

¿DE QUÉ DEPENDE EL INTERVALO DE CONFIANZA?

Del valor puntual estimado a partir de la muestra.


Al intervalo de confianza pertenecen valores ligeramente inferiores y ligeramente superiores a la
estimación puntual obtenida a partir de la muestra.
Del tamaño muestral.
Cuanto mayor sea el tamaño muestral mayor será el error de muestreo por lo esperamos que menor
sea la diferencia entre lo estimado y el valor del parámetro poblacional.
Del nivel de confianza elegido
Los niveles de confianza usuales son del 95% y del 99%.
Para un nivel de confianza del 100% el intervalo serı́a tan grande que no serı́a de provecho.
ELECCIÓN DEL TAMAÑO MUESTRAL

• Si X es una variable normal con varianza conocida, 2 , para tener una probabilidad 1 ↵ de que el
error X̄ µ en la estimación de µ sea inferior a un número dado , se necesita un tamaño

1
n 2
2
z1 (↵/2)
2

• Si no se conoce la varianza de X, puede estimarse mediante la cuasivarianza s2 , pero tanto ésta como
los percentiles de la t de Student dependen del tamaño muestral.

Por eso, para hallar ese tamaño mı́nimo, debe calcularse una estimación s20 de 2 mediante una muestra
previa de pequeño tamaño.
Una vez calculado s20 , el tamaño necesario para estimar la media se obtiene mediante la desigualdad
siguiente, redondeando al entero superior más próximo.

1
n s2
2 0
z1 (↵/2)
2
6.6. Contrastes de hipótesis

Un contraste de hipótesis es un método estadı́stico que confronta los resultados conseguidos empı́ricamente
mediante una recogida de datos respecto a una hipótesis de la que se parte, y toma una decisión sobre si
los datos apoyan o no apoyan esta hipótesis.

Se llama hipótesis nula (H 0 ) a la que defiende un modelo establecido. Es la hipótesis que contrastamos.
Los datos pueden refutarla, pero no deberı́a ser rechazada sin una buena razón porque las consecuencias
pueden ser graves.
Se llama hipótesis alternativa (H 1 ) a la que discute la validez del modelo, es decir, niega a H 0 .
Los datos pueden mostrar evidencia a su favor, pero no debe ser aceptada sin una gran evidencia a su
favor.

Las hipótesis deben plantearse antes de recoger los datos.


6.6. Contrastes de hipótesis
ELEMENTOS DE UN CONTRASTE
Se llama estadı́stico de contraste a una función T (X1 , . . . , Xn ) que resume la información muestral
más adecuada para discernir entre las dos hipótesis. La distribución del estadı́stico de contraste cuando
H 0 es cierta debe ser conocida.
Se llama valor observado o experimental del estadı́stico de contraste al número
t0 = T (x1 , . . . , xn ) que se obtendrá al aplicar el estadı́stico a los datos muestrales x1 , . . . , xn
observados; también suele notarse texp .
Se llama Tn al conjunto de valores que puede tomar el estadı́stico de contraste para todas las posibles
muestras de un tamaño dado.
El conjunto Tn se divide en dos regiones complementarias, llamadas región crı́tica o de rechazo (C)
y región de aceptación (A).
La región crı́tica del contraste es el conjunto de valores del estadı́stico de contraste para los que se
rechazará la hipótesis nula.
Esta región queda determinada por el nivel de significación, el tipo de contraste y el tamaño de la muestra.
Está limitada por uno o dos valores crı́ticos.
Un contraste de hipótesis es unilateral si sólo existe un valor crı́tico.
Un contraste de hipótesis es bilateral si existen dos valores crı́ticos.
6.6. Contrastes de hipótesis

CONTRASTES SOBRE LA MEDIA DE UNA LEY NORMAL

Hipótesis nulas: H0 : µ = µ0 , H0 : µ  µ0 o H0 : µ µ0
Hipótesis alternativas: H1 : µ 6= µ0 , H1 : µ > µ0 o H1 : µ < µ0

• Si se conoce la varianza, 2
:

el estadı́stico de contraste es
X̄ µ0
Z= p , que sigue la ley N (0, 1) si H 0 es cierta.
2 /n

• Si no se conoce la varianza

se calcula la cuasivarianza muestral s2 , y el estadı́stico de contraste es


X̄ µ0
T = p , que sigue la ley tn 1 si H 0 es cierta.
2
s /n
Nota 1: Si n > 30 puede considerarse que T ⇠ N (0, 1) si H 0 es cierta
6.6. Contrastes de hipótesis

Contraste bilateral: H0 : µ = µ0 ; H1 : µ 6= µ0

tn�1

Α�2 Α�2

�tn�1,1� Α tn�1,1� Α
2 2
Región de Región de Región de
rechazo aceptación rechazo

tn�1 tn�1
t experimental

Α�2 t experimental Α�2 Α�2 Α�2

�tn�1,1� Α tn�1,1� Α �tn�1,1� Α tn�1,1� Α


2 2 2 2
Región de Región de Región de Región de Región de Región de
rechazo aceptación rechazo rechazo aceptación rechazo

No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis
Ejemplo: En un proceso de producción, la longitud de los artı́culos producidos se modeliza según una
ley normal de media µ y varianza 2 desconocidas.
En condiciones de funcinamiento correcto, se espera que la longitud media de los artı́culos sea de 50mm.
Para comprobar la calidad, se decide tomar una muestra de 10 artı́culos que resultan tener una longitud
media de 51mm y varianza muestral de 1.
Basándonos en esta muestra, ¿qué podemos decir acerca del funcionamiento del proceso?
Planteamos el siguiente contraste de hipótesis:

H0 : µ = 50
H1 : µ 6= 50

Decidimos trabajar al 95% de confianza, por lo que ↵ = 0.05.


X̄ µ0
El estadı́stico de contraste es Z = p que sigue una tn 1 si H0 es cierta.
2
s /n
6.6. Contrastes de hipótesis

Los valores crı́ticos son los percentiles de órdenes 100 · ↵/2% y 100 · (1 ↵/2)%, es decir, la región
de rechazo está formada por los valores menores que tn 1,1 ↵/2 = t9,0.975 = 2.262 y mayores que
tn 1,1 ↵/2 = t9,0.975 = 2.262 .
51 50
Basándonos en la muestra, el valor de texp = p = 3.162
1/10
Puesto que texp pertenece a la región de rechazo, rechazamos H0 .
6.6. Contrastes de hipótesis

Contraste unilateral a la derecha: H0 : µ  µ0 ; H1 : µ > µ0

tn�1

tn�1,1�Α
Región de Región de
aceptación rechazo

tn�1 tn�1

t experimental
t experimental Α Α

tn�1,1�Α tn�1,1�Α
Región de Región de Región de Región de
aceptación rechazo aceptación rechazo

No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis

Contraste unilateral a la izquierda: H0 : µ µ0 ; H1 : µ < µ0

tn�1

�tn�1,1�Α
Región de Región de
rechazo aceptación

tn�1 tn�1
Α t experimental
Α t experimental

�tn�1,1�Α �tn�1,1�Α
Región de Región de Región de Región de
rechazo aceptación rechazo aceptación

No rechazo H 0 Rechazo H 0
6.6. Contrastes de hipótesis

RESULTADO DE UN CONTRASTE
Una vez tomada la muestra, se deducirá de ella un valor del estadı́stico de contraste y se comprobará si
está o no en la región crı́tica correspondiente al nivel de significación α fijado.
Si el valor del estadı́stico de contraste está en la región crı́tica, se rechaza H 0 y se dice que el contraste
ha sido significativo al nivel α.
Si el valor del estadı́stico de contraste no está en la región crı́tica, no se rechaza H 0 y se dice que el
contraste no ha sido significativo al nivel α.
6.6. Contrastes de hipótesis

Sinónimos de la expresión “estadı́sticamente significativo”

• Rechazo la hipótesis nula.

• No rechazo la hipótesis alternativa.

• Existe suficiente evidencia para dudar de la hipótesis nula.

• El resultado observado no es compatible con la hipótesis nula.

• Es improbable obtener un resultado como el observado si la hipótesis nula es cierta.

• Es improbable que el resultado observado sea debido al azar.

• Las variaciones inherentes al muestreo no bastan para explicar el resultado observado.


6.6. Contrastes de hipótesis
PASOS PARA REALIZAR UN CONTRASTE
(1) Plantear las hipótesis.
(2) Dibujar la gráfica de la función de densidad del estadı́stico de contraste.
(3) A partir de la hipótesis alternativa y del nivel de significación ↵ indicar en la gráfica la región de
rechazo.
(4) Calcular a partir de las tablas de la distribución del estadı́stico de contraste el valor o valores crı́ticos
que indican la frontera entre la región de aceptación y la región de rechazo.
(4.1) Si el contraste es bilateral, los valores crı́ticos son los percentiles de órdenes 100 · ↵/2% y
100 · (1 ↵/2)%, es decir, la región de rechazo está formada por los valores menores que z1 ↵/2
ó tn 1,1 ↵/2 y mayores que z1 ↵/2 ó tn 1,1 ↵/2 .
(4.2) Si el contraste es unilateral a la derecha, el valor crı́tico es el percentil 100 · (1 ↵)%, es decir,
la región de rechazo está formada por los valores mayores que z1 ↵ ó tn 1,1 ↵ .
(4.3) Si el contraste es unilateral a la izquierda, el valor crı́tico es el percentil 100 · ↵%, es decir, la
región de rechazo está formada por los valores menores que z1 ↵ ó tn 1,1 ↵ .

(5) Sustituir los estimadores muestrales en el estadı́stico de contraste y situar el valor obtenido en la
gráfica.
(6) Rechazar H 0 si el valor se sitúa en la región de rechazo.
En caso contrario no rechazarla.
6.6. Contrastes de hipótesis
Comentarios sobre los intervalos de confianza y los contrastes de hipótesis

• Si en un contraste bilateral y a un nivel de significación ↵, se rechaza la hipótesis nula, entonces el valor


µ0 de la hipótesis nula no pertenece al intervalo de confianza de nivel 100(1 ↵)%

• Los contrastes de hipótesis sólo indican si hay o no hay diferencia estadı́sticamente significativa entre el
valor de la hipótesis nula y el valor obtenido a partir de los datos muestrales.

• La información que proporcionan los intervalos de confianza complementa la dada por los contrastes
de hipótesis, indicando no sólo si hay diferencias significativas, sino entre qué valores se sitúa esta
diferencia.

Por tanto,

Si se rechaza la hipótesis nula, se debe dar un intervalo de confianza para estimar


la cuantı́a de la diferencia, lo que permitirá valorar su posible importancia.
6.6. Contrastes de hipótesis
Cuando se toma la decisión que resulta de un contraste, se pueden cometer
dos tipos de error: Realidad
• El error de tipo I, Decisión H0 cierta H0 falsa
que consiste en rechazar H 0 Error de
cuando en realidad es cierta. Aceptación H0 Acierto
Tipo II
• El error de tipo II,
que consiste en aceptar H 0 Error de
Rechazo H0 Acierto
cuando en realidad es falsa.
Tipo I

Siempre existe un riesgo de cometer uno de estos errores y es imposible disminuir el riesgo de caer en
uno de ellos sin aumentar el riesgo de caer en el otro. Para disminuir a la vez las dos probabilidades de
error, tiene que aumentarse el tamaño de la muestra.
El nivel de significación de un contraste es un número, α < 0.5, que indica el lı́mite superior de la
probabilidad de cometer un error de tipo I.
Se elige a voluntad y sirve para limitar el riesgo de cometer un error de tipo I.
Los niveles de significación más comunes son 0.1, 0.05, 0.01, 0.005, y 0.001.
A la probabilidad de cometer un errorh de tipo II se le suele denotar
i con la letra griega .
= P Aceptar H0 H0 es falsa
6.6. Contrastes de hipótesis

No es posible disminuir simultáneamente la probabilidad de cometer el error de tipo I y la probabilidad


de cometer el error de tipo II.
H0 H1

Β Α

Región de Región de
aceptación rechazo

H0 H1 H0 H1

Β Α Β Α

Región de Región de Región de Región de


aceptación rechazo aceptación rechazo

Si disminuimos ↵ aumenta Si aumenta ↵ disminuye


6.6. Contrastes de hipótesis

¿Cómo hacen los programas


de ordenador
los contrastes de hipótesis?
6.6. Contrastes de hipótesis
Los programas informáticos rechazan o no la hipótesis nula calculando un valor, que llaman P-valor, y
lo comparan con el valor ↵.
Intuitivamente el P-valor es la probabilidad asociada al valor experimental en el mismo sentido que la
hipótesis nula.
Contraste bilateral: H0 : µ = µ0 ; H1 : µ 6= µ0

tn�1 tn�1

p�valor�2 p�valor�2

t experimental
Α�2 Α�2
p�valor�2 p�valor�2
Α�2 t experimental Α�2

� �t exp� �t exp�

Región de Región de Región de Región de Región de Región de


rechazo aceptación rechazo rechazo aceptación rechazo

Si P > ↵ No rechazo H0 Si P  ↵ rechazo H0


Contraste no significativo Contraste significativo
6.6. Contrastes de hipótesis
Contraste unilateral a la derecha: H0 : µ  µ0 ; H1 : µ > µ0

tn�1 tn�1

p�valor t�experimental Α

t experimental Α p�valor

t exp t exp
Región de Región de Región de Región de
aceptación rechazo aceptación rechazo

Si P > ↵ No rechazo H0 Si P  ↵ rechazo H0


Contraste no significativo Contraste significativo
6.6. Contrastes de hipótesis
Contraste unilateral a la izquierda: H0 : µ µ0 ; H1 : µ < µ0

tn�1 tn�1

p�valor
Α
Α
p�valor
t experimental t experimental

Región de Región de Región de Región de


rechazo aceptación rechazo aceptación

Si P > ↵ No rechazo H0 Si P  ↵ rechazo H0


Contraste no significativo Contraste significativo
6.6. Contrastes de hipótesis
¿A partir de qué valor se considera que las diferencias son significativas?

Se fija el nivel de significación ↵, (generalmente suele ser ↵ = 0.05)

• Si el p-valor, P , de un contraste es menor o igual que el nivel de significación, ↵, debe rechazarse la


hipótesis nula:

P  ↵ , Se rechaza H 0 El contraste es significativo


o bien, hay diferencias estadı́sticamente significativas

• Si el p-valor , P , de un contraste es mayor que el nivel de significación, ↵, no puede rechazarse la


hipótesis nula:

P > ↵ , No se rechaza H 0 El contraste no es significativo


o bien, no hay diferencias estadı́sticamente significativas

La ausencia de discrepancias significativas conlleva al no rechazo provisional de la hipótesis nula mientras


no aparezcan evidencias empı́ricas en contra de ella.
6.6. Contrastes de hipótesis
Precauciones a la hora de interpretar el rechazo de H 0

• El rechazo de la hipótesis nula no permite dar una conclusión en sentido causal, el rechazo puede ser
debido a otros factores que no aparecen explı́citamente en el estudio.
• Un resultado no significativo solo indica que es compatible con la hipótesis nula porque la discrepancia
observada es pequeña.
• Decir que un contraste es “estadı́sticamente no significativo” no demuestra que la hipótesis nula sea cierta
y no es equivalente a hipótesis nula demostrada.
• No significativo indica que los datos no consiguen aportar suficientes pruebas para dudar de la credibilidad
de la hipótesis nula. De hecho la hipótesis puede ser falsa, pero no lo hemos detectado por haber realizado
un estudio con una muestra demasiado pequeña.
• No se debe “aceptar” la hipótesis nula porque implica una afirmación de la validez de la hipótesis nula.
• Un resultado estadı́sticamente significativo indica que no es compatible con H 0 porque ésta es poco
creible.
• El término muy significativo se utiliza para indicar que H 0 es poco creible. No es indicativo de la
importancia clı́nica del estudio.
• Los estudios con muestras muy pequeñas tienden a dar resultados estadı́sticamente no significativos.
• Los estudios con muestras muy grandes tienden a dar resultados estadı́sticamente significativos.

También podría gustarte