Está en la página 1de 64

Muestreo aleatorio e inferencia estadística

Econometría (Nivelación)

Néstor González-Quintero

Pontificia Universidad Javeriana


Outline

Muestreo aleatorio

Distribución muestral

Estimación e inferencia

1
Muestreo aleatorio
Muestreo aleatorio

• No es posible observar los momentos poblacionales

• Necesitamos apelar al razonamiento inductivo → Muestreo

• Muestreo aleatorio: elegir de manera aleatoria una muestra de una población más
grande

⇒ Cada observación de la muestra es la realización de una variable aleatoria!!

2
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3. Muestreo: Elegimos aleatoriamente n valores de W correspondientes a n individuos


de una población determinada, cuya probabilidad de ser elegidos sea la misma para
todo i = {1, 2, . . . , n}.

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3. Muestreo: Elegimos aleatoriamente n valores de W correspondientes a n individuos


de una población determinada, cuya probabilidad de ser elegidos sea la misma para
todo i = {1, 2, . . . , n}.

• Cada Wi es una de las posibles realizaciones de Wi (ω).

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3. Muestreo: Elegimos aleatoriamente n valores de W correspondientes a n individuos


de una población determinada, cuya probabilidad de ser elegidos sea la misma para
todo i = {1, 2, . . . , n}.

• Cada Wi es una de las posibles realizaciones de Wi (ω).

• Wi proviene de una distribución idéntica a la de la que proviene Wj (i 6= j).

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3. Muestreo: Elegimos aleatoriamente n valores de W correspondientes a n individuos


de una población determinada, cuya probabilidad de ser elegidos sea la misma para
todo i = {1, 2, . . . , n}.

• Cada Wi es una de las posibles realizaciones de Wi (ω).

• Wi proviene de una distribución idéntica a la de la que proviene Wj (i 6= j).

• Aleatoriedad → Wi no provee información acerca del valor de Wj ⇒ Wi (ω) es


independiente de Wj (ω) para todo i, j = {1, 2, . . . , n}.

3
Muestreo aleatorio simple: un ejemplo

1. Proceso aleatorio: Pago mensual de salario a un trabajador en Colombia


(Población?-Espacio muestral?).

2. Variable aleatoria: Wi (ω) = $ por trabajo mensual del individuo i

3. Muestreo: Elegimos aleatoriamente n valores de W correspondientes a n individuos


de una población determinada, cuya probabilidad de ser elegidos sea la misma para
todo i = {1, 2, . . . , n}.

• Cada Wi es una de las posibles realizaciones de Wi (ω).

• Wi proviene de una distribución idéntica a la de la que proviene Wj (i 6= j).

• Aleatoriedad → Wi no provee información acerca del valor de Wj ⇒ Wi (ω) es


independiente de Wj (ω) para todo i, j = {1, 2, . . . , n}.

W1 , W2 , . . . , Wn son independientemente e identicamente distribuidas (i.i.d.)!!!


3
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

4
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

• Cada Wi en una variable aleatoria i.i.d.⇒ W̄ es una variable aleatoria!

4
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

• Cada Wi en una variable aleatoria i.i.d.⇒ W̄ es una variable aleatoria!


• Caractericemos su distribución:
1. Valor esperado:

4
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

• Cada Wi en una variable aleatoria i.i.d.⇒ W̄ es una variable aleatoria!


• Caractericemos su distribución:
1. Valor esperado:
 
n
1 1 X
µW̄ ≡ E[W̄] = E[W1 ] + E[W2 ] + · · · + E[Wn ] = E[Wi ] = µW

n | {z } | {z } n
i=1
| {z }
=µW =µW =µW | {z }
=nµW

4
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

• Cada Wi en una variable aleatoria i.i.d.⇒ W̄ es una variable aleatoria!


• Caractericemos su distribución:
1. Valor esperado:
 
n
1 1 X
µW̄ ≡ E[W̄] = E[W1 ] + E[W2 ] + · · · + E[Wn ] = E[Wi ] = µW

n | {z } | {z } n
i=1
| {z }
=µW =µW =µW | {z }
=nµW

2. Varianza:

4
El promedio muestral

n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1

• Cada Wi en una variable aleatoria i.i.d.⇒ W̄ es una variable aleatoria!


• Caractericemos su distribución:
1. Valor esperado:
 
n
1 1 X
µW̄ ≡ E[W̄] = E[W1 ] + E[W2 ] + · · · + E[Wn ] = E[Wi ] = µW

n | {z } | {z } n
i=1
| {z }
=µW =µW =µW | {z }
=nµW

2. Varianza:
n n n 2
2 1 X 2 X X σW σW
σW̄ ≡ V(W̄) = V(Wi ) + COV(W i , W j ) = ⇒ σW̄ = √
n2 n2 n n
i=1 i=1 j=1,j6=i
| {z }
| {z } =0 (Wi es i.i.d.!!!) 4
=nσ 2
Distribución muestral
Aproximamiento a la distribución muestral: muestra grande

• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?

5
Aproximamiento a la distribución muestral: muestra grande

• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?

2
W̄ ∼ N µW̄ , σW̄


5
Aproximamiento a la distribución muestral: muestra grande

• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
2
 
2 σW
W̄ ∼ N µW̄ , σW̄ = N µW ,

n

5
Aproximamiento a la distribución muestral: muestra grande

• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
σ2
 
2
W̄ ∼ N µW̄ , σW̄ = N µW , W

n

• Qué pasa si no conocemos la distribución de la que provienen los Wi ?

• Derivar una fórmula exacta que se cumpla para cualquier tamaño de muestra n …algo
complicado

5
Aproximamiento a la distribución muestral: muestra grande

• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
2
 
2 σW
W̄ ∼ N µW̄ , σW̄ = N µW ,

n

• Qué pasa si no conocemos la distribución de la que provienen los Wi ?

• Derivar una fórmula exacta que se cumpla para cualquier tamaño de muestra n …algo
complicado

• Aproximar la distribución bajo el supuesto de que n siempre va a ser lo suficientemente


grande (n → ∞)
2
• Pero…conocemos µW y σW ? R: NO!!! → necesitamos ESTIMARLOS a partir de los datos

5
La ley de los grandes números

• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.

6
La ley de los grandes números

• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.

6
La ley de los grandes números

• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.
• Si {W1 , W2 , . . . , Wn } son variables aleatorias i.i.d. con valor esperado común
2
E[Wi ] = µW , y la probabilidad de valores extremos es pequeña (σW < ∞), entonces
n
1X p
W̄ = Wi −→ µW
n
i=1

”W̄ converge en probabilidad a µW ”.

6
La ley de los grandes números

• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.
• Si {W1 , W2 , . . . , Wn } son variables aleatorias i.i.d. con valor esperado común
2
E[Wi ] = µW , y la probabilidad de valores extremos es pequeña (σW < ∞), entonces
n
1X p
W̄ = Wi −→ µW
n
i=1

”W̄ converge en probabilidad a µW ”.


• W̄ esta cerca a µW con probabilidad creciendo hacia 1 a medida que n se incrementa
⇒ Consistencia
6
Teorema del límite central

• Bajo condiciones generales, la distribución de W̄ se aproxima a una distribución


normal cuando n es lo suficientemente grande incluso si {W1 , W2 , . . . , Wn } no se
distribuyen normalmente
2
 
σW
W̄ ∼ N µW ,
n
Se dice que W̄ se ditribuye asintóticamente normal.

7
Teorema del límite central

• Bajo condiciones generales, la distribución de W̄ se aproxima a una distribución


normal cuando n es lo suficientemente grande incluso si {W1 , W2 , . . . , Wn } no se
distribuyen normalmente
2
 
σW
W̄ ∼ N µW ,
n
Se dice que W̄ se ditribuye asintóticamente normal.

Wi −µW
• Qué pasa si estandarizamos {Wi }?: Zi = σW2

7
Teorema del límite central

• Bajo condiciones generales, la distribución de W̄ se aproxima a una distribución


normal cuando n es lo suficientemente grande incluso si {W1 , W2 , . . . , Wn } no se
distribuyen normalmente
2
 
σW
W̄ ∼ N µW ,
n
Se dice que W̄ se ditribuye asintóticamente normal.

Wi −µW
• Qué pasa si estandarizamos {Wi }?: Zi = σW2

2
• Sean {W1 , W2 , . . . , Wn } v.a. i.i.d. con E[Wi ] = µW y V(Wi ) = σW < ∞. A medida que
n→∞
W̄ − µW d
= Z̄ −→ N(0, 1)
σW̄

7
Estimación e inferencia
Estimación e inferencia

Estimadores y Estimación
Estimador de la media poblacional (µW )

• Estimador: función de una muestra de datos seleccionada aleatoriamente de la


población

µ̂W = f (W1 , W2 , . . . , Wn ) → Variable aleatoria en si mismo!


| {z }
muestra!

8
Estimador de la media poblacional (µW )

• Estimador: función de una muestra de datos seleccionada aleatoriamente de la


población

µ̂W = f (W1 , W2 , . . . , Wn ) → Variable aleatoria en si mismo!


| {z }
muestra!

• Estimación: Valor (realización) numérico del estimador.

8
Estimador de la media poblacional (µW )

• Estimador: función de una muestra de datos seleccionada aleatoriamente de la


población

µ̂W = f (W1 , W2 , . . . , Wn ) → Variable aleatoria en si mismo!


| {z }
muestra!

• Estimación: Valor (realización) numérico del estimador.

• Cual puede ser un estimador de la media poblacional de W?


1
Pn
• µˆW = W̄ = n i=1 Wi

8
Estimador de la media poblacional (µW )

• Estimador: función de una muestra de datos seleccionada aleatoriamente de la


población

µ̂W = f (W1 , W2 , . . . , Wn ) → Variable aleatoria en si mismo!


| {z }
muestra!

• Estimación: Valor (realización) numérico del estimador.

• Cual puede ser un estimador de la media poblacional de W?


1
Pn
• µˆW = W̄ = n i=1 Wi

• µˆW = min ({Wi })

• µˆW = max ({Wi })

• µˆW = W5

8
Caracterizando el estimador

1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW

9
Caracterizando el estimador

1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW

2. Consistencia: µ̂W se dice consistente si


p
µ̂W −→ µW

9
Caracterizando el estimador

1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW

2. Consistencia: µ̂W se dice consistente si


p
µ̂W −→ µW

3. Eficiencia: Sean µ̂W y µ˜W estimadores insesgados de µW . µ̂W se dice más eficiente
que µ˜W si
V(µ̂W ) < V(µ̃W )

9
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0

10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0
2. Consistencia: Dado que W̄ es un promedio, por la ley de los grandes números:
p
W̄ −→ µW

10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0
2. Consistencia: Dado que W̄ es un promedio, por la ley de los grandes números:
p
W̄ −→ µW
3. Eficiencia: De nuestra caracterización de W̄ sabemos:
σ2
V(W̄) = W
n

10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0
2. Consistencia: Dado que W̄ es un promedio, por la ley de los grandes números:
p
W̄ −→ µW
3. Eficiencia: De nuestra caracterización de W̄ sabemos:
σ2
V(W̄) = W
n

• Ejercicio: Cuál es la varianza de µ̂w = W5 ? Es mayor/menor/igual que V(W̄)?

10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0
2. Consistencia: Dado que W̄ es un promedio, por la ley de los grandes números:
p
W̄ −→ µW
3. Eficiencia: De nuestra caracterización de W̄ sabemos:
σ2
V(W̄) = W
n

• Ejercicio: Cuál es la varianza de µ̂w = W5 ? Es mayor/menor/igual que V(W̄)?


• Para n par …Cuál es la varianza de
W̃ = n1 21 W1 + 32 W2 + 21 W3 + 32 W4 + · · · + 21 Wn−1 + 32 Wn ?


10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi

1. Sesgo: De nuestra caracterización de W̄ sabemos:


E[W̄] = µw → Sesgo(W̄) = 0
2. Consistencia: Dado que W̄ es un promedio, por la ley de los grandes números:
p
W̄ −→ µW
3. Eficiencia: De nuestra caracterización de W̄ sabemos:
σ2
V(W̄) = W
n

• Ejercicio: Cuál es la varianza de µ̂w = W5 ? Es mayor/menor/igual que V(W̄)?


• Para n par …Cuál es la varianza de
W̃ = n1 21 W1 + 32 W2 + 21 W3 + 32 W4 + · · · + 21 Wn−1 + 32 Wn ?


W̄ es el estimador MELI (BLUE) de µW !!!


10
Estimador de la varianza muestral y error estándar

• Estimador de la varianza muestral:


n
1 X
2 ≡ s2 =
σˆW W (Wi − W̄)2
n−1
i=1

• Error estándar de W̄: q


s2W sW
SE(W̄) = √ = √
n n

11
Estimación e inferencia

Inferencia: test de hipótesis sobre la


media
Planteando la hipótesis

• Generalmente puede ser planteadas como una pregunta con respuesta Si o No


• Debe contrastarse contra otra pregunta alternativa

12
Planteando la hipótesis

• Generalmente puede ser planteadas como una pregunta con respuesta Si o No


• Debe contrastarse contra otra pregunta alternativa
• En el caso de un test de hipótesis sobre la media poblacional…

1. Hipótesis nula: la media poblacional de W es igual a µW,0 (?)


H0 : µW = µW,0
|{z}
≡E[W]

12
Planteando la hipótesis

• Generalmente puede ser planteadas como una pregunta con respuesta Si o No


• Debe contrastarse contra otra pregunta alternativa
• En el caso de un test de hipótesis sobre la media poblacional…

1. Hipótesis nula: la media poblacional de W es igual a µW,0 (?)


H0 : µW = µW,0
|{z}
≡E[W]

2. Hipótesis alternativa: Especifíca qué es verdadero si la hipotesis nula no es


verdadera.

12
Planteando la hipótesis

• Generalmente puede ser planteadas como una pregunta con respuesta Si o No


• Debe contrastarse contra otra pregunta alternativa
• En el caso de un test de hipótesis sobre la media poblacional…

1. Hipótesis nula: la media poblacional de W es igual a µW,0 (?)


H0 : µW = µW,0
|{z}
≡E[W]

2. Hipótesis alternativa: Especifíca qué es verdadero si la hipotesis nula no es


verdadera.
• Opción 1: Hipótesis alternativa de ”dos colas”
H1 : µW 6= µW,0

12
Planteando la hipótesis

• Generalmente puede ser planteadas como una pregunta con respuesta Si o No


• Debe contrastarse contra otra pregunta alternativa
• En el caso de un test de hipótesis sobre la media poblacional…

1. Hipótesis nula: la media poblacional de W es igual a µW,0 (?)


H0 : µW = µW,0
|{z}
≡E[W]

2. Hipótesis alternativa: Especifíca qué es verdadero si la hipotesis nula no es


verdadera.
• Opción 1: Hipótesis alternativa de ”dos colas”
H1 : µW 6= µW,0
• Opción 2: Hipótesis alternativa de ”una cola”…por ejemplo:
H1 : µW > µW,0 12
Bases del test de hipótesis

• Instrumento: muestra de datos aleatoriamente seleccionada a partir de la cual se


puede obtener el valor estimado W̄muestra


H0 no es verdadera
µW − µW,0 6= 0
W,0 pero W̄muestra 6= µW,0 por incertidumbre muestral
µ = µ
W

• Dado que el instrumento es una muestra aleatoria:


1. Si H0 es ”aceptada” no podemos decir con total certeza que es verdadera! (Por qué?)
Decimos entonces que ”no se rechaza”
2. Si H0 es ” no aceptada” no podemos decir con total certeza que H1 es verdadera! Decimos
entonces que ”H0 se rechaza”

• Como utilizamos la muestra? No sabemos ∼ W pero bajo el supuesto de muestra


grande…
p
1. LGN → W̄ −→ µW
2 13
2. TLC → W̄ ∼ N(µW , σW /n)
Test de ”dos colas”: Valor-p (p-value)

H0 : µW = µW,0
H1 : µW 6= µW,0

1. Supuesto inicial: H0 es verdadera! ⇒ cualquier diferencia observada entre µ̂w y µW,0


es explicada por la aleatoriedad en el muestreo …bajo H0 :
2
 
σW
W̄ ∼ N µW,0 ,
n

14
Test de ”dos colas”: Valor-p (p-value)

H0 : µW = µW,0
H1 : µW 6= µW,0

1. Supuesto inicial: H0 es verdadera! ⇒ cualquier diferencia observada entre µ̂w y µW,0


es explicada por la aleatoriedad en el muestreo …bajo H0 :
2
 
σW
W̄ ∼ N µW,0 ,
n

2. Cuál es la probabilidad de que obtener un valor estimado W̄ que esta igual de lejos o
más lejos que W̄muestra de µW,0 ?
Valor-p = Pr|H0 verdadera |W̄ − µW,0 | > |W̄muestra − µW,0 |


14
Qué está pasando?

Densidad

|Wmuestra−µW,0|−µW,0 µW,0 |Wmuestra−µW,0|+µW,0

15
W
Qué está pasando?

Densidad

|Wmuestra−µW,0|−µW,0
µW,0 |Wmuestra−µW,0|+µW,0

15
W
Y si estandarizamos?

 

 W̄ − µW,0 W̄muestra − µW,0


 
Valor-p = Pr|H0 verdadera  >  → Z ∼ N(0, 1)

 σW̄ σW̄ 
| {z } | {z }
=Z ”Valor a partir de la muestra”

Densidad

0
Wmuestra − µW,0 Wmuestra − µW,0
−    
 σW 


 σW 
 16
z
Estadístico ”t”

• Estadístico ”t”
W̄muestra − µW,0 d
t= −→ N(0, 1)
SE(W̄)

• Si
Valor-p(t) = Pr|H0 verdadera (|Z| > |t|) → 0

Existe evidencia estadística en contra de H0 !!

• Qué tan pequeño debe ser el Valor-p?

17
Errores Tipo I y II

1. Error Tipo I: rechazar incorrectamente la hipótesis nula cuando es verdadera


• Es posible elegir un nivel de significancia del test → probabilidad pre-especificada de
rechazar la H0 (α)

• Tamaño del test: Probabilidad de cometer el error Tipo I

• Valor crítico del Estadístico ”t”: Valor del Estadístico ”t” para el se comienza a rechazar H0 :

• Prueba de ”dos colas”: tα/2


α = Prob(|Z| > |tα/2 |)

2. Error Tipo II: No rechazar la hipótesis nula cuando esta es falsa


• Poder del test: Probabilidad de rechazar correctamente la hipótesis nula cuando H1 es
verdadera

18
Test de hipótesis de dos colas (alternativa 1)

1. Elegir el nivel de significancia del test α (Práctica común: α = 0.05).

2. Calcular el estadístico de Prueba


W̄muestra − µW,0
t=
SE(W̄)

3. Determinar el Valor-p del estadístico de prueba:

Valor-p(t) = Prob|H0 verdadera (|Z| > |tmuestra |)

4. Comparar:

• Si Valor-p ≤ α existe evidencia estadística para rechazar H0 .

• Si Valor-p > α existe evidencia estadística para no rechazar H0 .

19
Test de hipótesis de dos colas (alternativa 2)

1. Elegir el nivel de significancia del test α (Práctica común: α = 0.05).


2. Determinar el valor crítico tα/2 .
3. Calcular el estadístico de Prueba
W̄muestra − µW,0
t=
SE(W̄)
4. Comparar:
• Si |t| > |tα/2 | existe evidencia estadística para rechazar H0 .

• Si |t| ≤ |tα/2 | existe evidencia estadística para no rechazar H0 .

20
Test de hipótesis de dos colas (alternativa 2)

1. Elegir el nivel de significancia del test α (Práctica común: α = 0.05).


2. Determinar el valor crítico tα/2 .
3. Calcular el estadístico de Prueba
W̄muestra − µW,0
t=
SE(W̄)
4. Comparar:
• Si |t| > |tα/2 | existe evidencia estadística para rechazar H0 .

• Si |t| ≤ |tα/2 | existe evidencia estadística para no rechazar H0 .

5. (Alternativa) Es posible construir el intervalo de confianza del estimador W̄ como:


IC(W̄)1−α = [W̄muestra − |tα/2 | × SE(W̄), W̄muestra + |tα/2 | × SE(W̄)]
Con una confianza del 1 − α%, el verdadero valor de µW se encontrará en este
intervalo. ⇒ si µW,0 ∈
/ IC(W̄)1−α hay evidencia para rechazar H0 .
20
Test de hipótesis de dos colas

Densidad

0
21
z

También podría gustarte