Documentos de Académico
Documentos de Profesional
Documentos de Cultura
02 Inferencia
02 Inferencia
Econometría (Nivelación)
Néstor González-Quintero
Muestreo aleatorio
Distribución muestral
Estimación e inferencia
1
Muestreo aleatorio
Muestreo aleatorio
• Muestreo aleatorio: elegir de manera aleatoria una muestra de una población más
grande
2
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
3
Muestreo aleatorio simple: un ejemplo
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
4
El promedio muestral
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
4
El promedio muestral
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
4
El promedio muestral
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
4
El promedio muestral
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
2. Varianza:
4
El promedio muestral
n
1 1 X
W̄ = (W1 + W2 + · · · + Wn ) = Wi
n n
i=1
2. Varianza:
n n n 2
2 1 X 2 X X σW σW
σW̄ ≡ V(W̄) = V(Wi ) + COV(W i , W j ) = ⇒ σW̄ = √
n2 n2 n n
i=1 i=1 j=1,j6=i
| {z }
| {z } =0 (Wi es i.i.d.!!!) 4
=nσ 2
Distribución muestral
Aproximamiento a la distribución muestral: muestra grande
• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
5
Aproximamiento a la distribución muestral: muestra grande
• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
2
W̄ ∼ N µW̄ , σW̄
5
Aproximamiento a la distribución muestral: muestra grande
• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
2
2 σW
W̄ ∼ N µW̄ , σW̄ = N µW ,
n
5
Aproximamiento a la distribución muestral: muestra grande
• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
σ2
2
W̄ ∼ N µW̄ , σW̄ = N µW , W
n
• Derivar una fórmula exacta que se cumpla para cualquier tamaño de muestra n …algo
complicado
5
Aproximamiento a la distribución muestral: muestra grande
• Supongamos que sabemos que cada Wi proviene de una distribución normal con
2
media µW y varianza σW …Cuál es la distribución de W̄?
2
2 σW
W̄ ∼ N µW̄ , σW̄ = N µW ,
n
• Derivar una fórmula exacta que se cumpla para cualquier tamaño de muestra n …algo
complicado
5
La ley de los grandes números
• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
6
La ley de los grandes números
• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.
6
La ley de los grandes números
• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.
• Si {W1 , W2 , . . . , Wn } son variables aleatorias i.i.d. con valor esperado común
2
E[Wi ] = µW , y la probabilidad de valores extremos es pequeña (σW < ∞), entonces
n
1X p
W̄ = Wi −→ µW
n
i=1
6
La ley de los grandes números
• Bajo condiciones generales, con muy alta probabilidad el promedio muestral estará
cerca del valor esperado poblacional cuando n es lo suficientemente grande.
• Cuando un suficientemente grande número de variables aleatorias son promediadas
entre si, los valores grandes tenederán a balancear los valores pequeños y dicho
promedio estará muy cerca de su media común.
• Si {W1 , W2 , . . . , Wn } son variables aleatorias i.i.d. con valor esperado común
2
E[Wi ] = µW , y la probabilidad de valores extremos es pequeña (σW < ∞), entonces
n
1X p
W̄ = Wi −→ µW
n
i=1
7
Teorema del límite central
Wi −µW
• Qué pasa si estandarizamos {Wi }?: Zi = σW2
7
Teorema del límite central
Wi −µW
• Qué pasa si estandarizamos {Wi }?: Zi = σW2
2
• Sean {W1 , W2 , . . . , Wn } v.a. i.i.d. con E[Wi ] = µW y V(Wi ) = σW < ∞. A medida que
n→∞
W̄ − µW d
= Z̄ −→ N(0, 1)
σW̄
7
Estimación e inferencia
Estimación e inferencia
Estimadores y Estimación
Estimador de la media poblacional (µW )
8
Estimador de la media poblacional (µW )
8
Estimador de la media poblacional (µW )
8
Estimador de la media poblacional (µW )
• µˆW = W5
8
Caracterizando el estimador
1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW
9
Caracterizando el estimador
1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW
9
Caracterizando el estimador
1. Sesgo:
Sesgo(µ̂W ) = E[µ̂W ] − µW
µ̂W se dice insesgado si Sesgo(µ̂W ) = 0 ⇒ E[µ̂W ] = µW
3. Eficiencia: Sean µ̂W y µ˜W estimadores insesgados de µW . µ̂W se dice más eficiente
que µ˜W si
V(µ̂W ) < V(µ̃W )
9
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
10
1
Pn
Caractericemos a µˆW = W̄ = n i=1 Wi
11
Estimación e inferencia
12
Planteando la hipótesis
12
Planteando la hipótesis
12
Planteando la hipótesis
12
Planteando la hipótesis
H0 : µW = µW,0
H1 : µW 6= µW,0
14
Test de ”dos colas”: Valor-p (p-value)
H0 : µW = µW,0
H1 : µW 6= µW,0
2. Cuál es la probabilidad de que obtener un valor estimado W̄ que esta igual de lejos o
más lejos que W̄muestra de µW,0 ?
Valor-p = Pr|H0 verdadera |W̄ − µW,0 | > |W̄muestra − µW,0 |
14
Qué está pasando?
Densidad
15
W
Qué está pasando?
Densidad
|Wmuestra−µW,0|−µW,0
µW,0 |Wmuestra−µW,0|+µW,0
15
W
Y si estandarizamos?
Densidad
0
Wmuestra − µW,0 Wmuestra − µW,0
−
σW
σW
16
z
Estadístico ”t”
• Estadístico ”t”
W̄muestra − µW,0 d
t= −→ N(0, 1)
SE(W̄)
• Si
Valor-p(t) = Pr|H0 verdadera (|Z| > |t|) → 0
17
Errores Tipo I y II
• Valor crítico del Estadístico ”t”: Valor del Estadístico ”t” para el se comienza a rechazar H0 :
18
Test de hipótesis de dos colas (alternativa 1)
4. Comparar:
19
Test de hipótesis de dos colas (alternativa 2)
20
Test de hipótesis de dos colas (alternativa 2)
Densidad
0
21
z