Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capítulo II
Econometría
Profesor
Rodrigo Ortega Blu
1
05-04-2021
Terminología
• En el modelo de regresión lineal simple, donde y = b0 + b1x + u, nos
referimos a y como:
✓Variable dependiente
✓Variable respuesta
✓Variable predicha
✓Variable explicada
✓Regresando
Terminología
• En regresión lineal simple de y sobre x, nos referimos a x como:
✓Variable independiente
✓Variable explicativa
✓Variable control
✓Variable predictiva
✓Regresor
2
05-04-2021
Supuesto básico
• El valor promedio de u, el término de error, en la población es 0. esto
es,
• E(u) = 0
3
05-04-2021
Entrenamiento y productividad
Salario= b0 + b1educ+ m
E(u/x)=0
Ej. u=habilidad
E(habilidad/8)=E(habilidad/16)…
4
05-04-2021
Copyright © 2009
South-Western/Cengage 10
Learning
10
5
05-04-2021
Copyright © 2009
South-Western/Cengage 11
Learning
11
12
12
6
05-04-2021
y3 .} u3
y2 u2{ .
y1 .} u1
x1 x2 x3 x4 x
13
13
• Cov(x,u) = E(xu) = 0
14
14
7
05-04-2021
å
1
(xi - mx )(yi - my )
n i=1
r=
sx ·sy
Numerador: Covarianza
15
Derivando MCO
• Es posible escribir nuestras dos restricciones in términos de x, y, b0 y
b1 , debido a que
u = y – b0 – b1x
• E(y – b0 – b1x) = 0
• E[x(y – b0 – b1x)] = 0
16
16
8
05-04-2021
17
17
Derivación de MCO
• Elegir valores de los parámetros que aseguren que las versiones muestreales de
las restricciones de momento son verdaderas.
• Versiones muestreales de las restricciones de momento son:
( )
n
n-1 å yi - bˆ 0 - bˆ1 xi = 0
i=1
( )
n
n-1 å xi yi - bˆ 0 - bˆ1 xi = 0
i=1 18
18
9
05-04-2021
Derivación de MCO
• Dada la definición de promedio de la muestra y las propiedades de
sumatoria, la primera condición puede ser reescrita como:
y = bˆ 0 + bˆ1 x,
ó
bˆ = y - bˆ x
0 1 19
19
Derivación de MCO
å x ( y - ( y - bˆ x) - bˆ x ) = 0
n
i i 1 1 i
i=1
n n
å x ( y - y) = bˆ å x ( x - x)
i i 1 i i
i=1 i=1
n n
å ( xi - x)( yi - y) = bˆ1å ( xi - x) 2
i=1 i=1 20
20
10
05-04-2021
å ( x - x)( y - y)
i i Covarianza
bˆ1 = i=1
n
å ( x - x)
i
2 Varianza
i=1
n
siempre que å ( xi - x) > 0
2
i=1
21
21
Cov(x, y) =
å (x - x)(y- y)
n-1
Var(X) =
å (x - x) 2
n-1
22
22
11
05-04-2021
23
23
MCO
• Intuitivamente MCO consiste en ajustar una línea a través de
los puntos de las muestras de manera que la SC de residuales
sea lo más pequeña posible (MC).
• El residual, û, es un estimador del término de error, u, y es la
diferencia entre la línea ajustada (función de regresión de la
muestra) y el punto de muestreo.
24
24
12
05-04-2021
y
y4 .
û4{ yˆ = bˆ0 + bˆ1 x
y3 .} û3
y2 û {.
2
y1 .} û1
x1 x2 x3 x4 x
25
25
• Problema de minimización
• Se desea elegir los parámetros (betas) de manera de minimizar:
å(uˆ ) = å( )
n n
yi - bˆ 0 - bˆ1 xi
2 2
i
i=1 i=1
• Ejemplo en Excel usando Solver
26
26
13
05-04-2021
å ( y - bˆ )
n
i 0 - bˆ1 xi = 0
i=1
å x ( y - bˆ )
n
i i 0 - bˆ1 xi = 0
i=1
27
27
28
28
14
05-04-2021
Propiedades algebraicas
n
n å uˆ i
å uˆ = 0 y así,
i
i=1
n
=0
i=1
n
å x uˆ = 0
i i
i=1
y = bˆ 0 + bˆ1 x
29
29
Terminología
Es posible pensar que cada observación está hecha de dos partes:
una explicada y la otra no explicada : yi = yˆ i + uˆ i luego se puede definir :
30
15
05-04-2021
i
( ) = ( yi − yˆ i ) + ( yˆ i − y )
2
−
2
y y
SST =
i iuˆ + ( ˆ
y − y )2
= uˆi2 + 2uˆi ( yˆ i − y ) + ( yˆ i − y )
2
= uˆi2 + 2 uˆi ( yˆ i − y ) + ( yˆ i − y )
2
31
Bondad de ajuste
• ¿Que tan bien se ajusta la línea de regresión a los datos de la
muestra?
SSE SSR
R2 = =1−
SST SST
32
32
16
05-04-2021
33
34
17
05-04-2021
35
Nivel-Nivel y x Δy=β1Δx
36
18
05-04-2021
Supuestos de Gauss-Markov
• Supuesto 1: Parámetros son lineales
el modelo de la población es lineal en sus parámetros: y = b0 + b1x + u
• Supuesto 2:Muestreo aleatorio
Se disponen de una muestra aleatoria de tamaño n, {(xi, yi): i=1, 2, …, n}, desde el
modelo de la población. Así el modelo de la muestra será yi = b0 + b1xi + ui
• Supuesto 3: variación en la variable explicativa. Existe variación en xi
• Supuesto 4. Media condicional cero
Valor esperado del error es cero para cualquier valor de la variable explicativa
E(u|x) = 0 y así E(ui|xi) = 0
37
37
Supuestos de Gauss-Markov
• Supuesto 5: homoscedasticidad
El error u tiene la misma varianza dado cualquier valor de la
variable explicativa
Var(u|x)=s2
38
38
19
05-04-2021
Insesgamiento de MCO
• Para entender el insesgamiento se necesita reescribir
nuestro estimador del parámetro de la población.
bˆ1 =
(xi − x )( yi − y ) (xi − x )yi
=
i ( x − x )2
(xi − x )2
Sea : s x2 (x − x ) i
2
39
39
Insesgamiento
(x − x )y = (x − x )(b + b x + u )
i i i 0 1 i i
= (x − x )b + (x − x )b x + (x − x )u
i 0 i 1 i i i
= b (x − x ) + b (x − x )x + (x − x )u
0 i 1 i i i i
Sabemos que : (x − x ) = 0, i
(x − x )x = (x − x ) = s
i i i
2 2
x
40
40
20
05-04-2021
Insesgamiento de MCO
asi, el numerador puede ser escrito como :
b1s x2 + (xi − x )ui
Por lo tanto :
b1s x2 + (xi − x )ui (x − x )u
bˆ1 = = b1 +
i i
s x2 s x2
41
41
Insesgamiento de MCO
Sea d i = (xi − x )
así que : bˆi = b1 + 1 2 d i ui
sx
Entonces al aplicar va lor esperado :
E (bˆ1 ) = b1 + 1 2 d i E (ui )
sx
y dado que E(u i ) = 0 :
E (bˆ1 ) = b1
42
42
21
05-04-2021
Resumen de insesgamiento
• Los estimadores de b1 y b0 son insesgados
• Prueba de insesgamiento depende de nuestros cuatro supuestos. Si
alguno de los supuestos falla, entonces el método de MCO es no
necesariamente insesgado.
• Recordar que insesgamiento es una característica de las
distribuciones muestreales de bˆo y bˆ1 que nada dice acerca del
estimador que se obtiene de una muestra dada - En una muestra
dada podemos estar “cerca” o “lejos” desde el parámetro real.
43
43
44
44
22
05-04-2021
Varianza de U (homocedástica)
Var (u | x) = E (u 2 | x) − E (u | x)
2
De esta manera :
Dado : y = b 0 + b1 x + u
E(y | x) = b 0 + b1 x
Var ( y | x) = s 2
45
45
Caso de homoscedasticidad
Copyright © 2009
South-Western/Cengage 46
Learning
46
23
05-04-2021
Caso de heteroscedasticidad
Copyright © 2009
South-Western/Cengage 47
Learning
47
2
Var (bˆ1 ) = E bˆ1 − E ( bˆ1 ) = E bˆ1 − b1 = E 1 2
2 2
d i ui
x
s
2
( d u ) = ( d u ) = 1s d E(u )
2 2 2
2
= E 1 2 1 E 2 2
s x
i i
s x2 i i 2 i i
x
2 2
1
= 1 2
x
s d Var (u ) =
i
2
i
s x2
d s i
2 2
2 2
= s 2 1 2
x
s d i
2
== s 2 1 2 s x2
x
s
s2
Var (bˆ1 ) =
s x2 48
48
24
05-04-2021
49
49
50
50
25
05-04-2021
sˆ 2
=
uˆ 2
i
= SSR / (n − 2 )
(n − 2)
51
51
EE (bˆ1 ) =
s2
(
(x i − x )2 )
para bˆ0
EE (bˆ0 ) = s *
( x ) 2
(n (x − x ) )
i
2
i
52
52
26