Está en la página 1de 26

05-04-2021

Capítulo II
Econometría
Profesor
Rodrigo Ortega Blu

El modelo de regresión simple


y = b 0 + b 1x + u

1
05-04-2021

Terminología
• En el modelo de regresión lineal simple, donde y = b0 + b1x + u, nos
referimos a y como:
✓Variable dependiente
✓Variable respuesta
✓Variable predicha
✓Variable explicada
✓Regresando

Terminología
• En regresión lineal simple de y sobre x, nos referimos a x como:

✓Variable independiente
✓Variable explicativa
✓Variable control
✓Variable predictiva
✓Regresor

2
05-04-2021

Supuesto básico
• El valor promedio de u, el término de error, en la población es 0. esto
es,

• E(u) = 0

• Este no es un supuesto restrictivo, debido a que siempre se puede


usar b0 para normalizar E(u) a 0

Media condicional cero


• Necesidad de hacer un supuesto crucial respecto a como u y
x se relacionan
• Es necesario que el saber algo acerca de x no entregue
información alguna acerca de u, de manera que ellas sean
absolutamente independientes o no correlacionadas.
• E(u|x) = E(u) = 0, lo que implica
• E(y|x) = b0 + b1x

3
05-04-2021

Entrenamiento y productividad

Salario= b0 + b1educ+ m
E(u/x)=0
Ej. u=habilidad
E(habilidad/8)=E(habilidad/16)…

E(y|x) como una función lineal de x, donde para cualquier x


la distribución de y se centra alrededor de E(y|x)

4
05-04-2021

Ejemplo: Función de regresión de la población.

E(PromUn/PromCol) =1.5 + 0.5Pr omCol

Copyright © 2009
South-Western/Cengage 10
Learning

10

5
05-04-2021

Copyright © 2009
South-Western/Cengage 11
Learning

11

Mínimos cuadrados ordinarios (MCO)

• Idea básica de la regresión es estimar los parámetros de la


población desde una muestra.
• Sea {(xi,yi): i=1, …,n} una muestra aleatoria de tamaño n
desde la población.
• Para cada observación en esta muestra será el caso que
yi = b0 + b1xi + ui

12

12

6
05-04-2021

Regresión lineal de la población, puntos de datos


de muestreo y los términos de error asociados.
y
y4 . E(y|x) = b0 + b1x
u4{

y3 .} u3
y2 u2{ .

y1 .} u1
x1 x2 x3 x4 x
13

13

Derivando los estimadores por MCO

• Para derivar los estimadores por MCO necesitamos tener en


cuenta que nuestro principal supuesto E(u|x) = E(u) = 0
también implica que

• Cov(x,u) = E(xu) = 0

• Recordar que: Cov(X,Y) = E(XY) – E(X)E(Y)

14

14

7
05-04-2021

Coeficiente de correlación de Pearson.

å
1
(xi - mx )(yi - my )
n i=1
r=
sx ·sy
Numerador: Covarianza

15

Derivando MCO
• Es posible escribir nuestras dos restricciones in términos de x, y, b0 y
b1 , debido a que
u = y – b0 – b1x

• E(y – b0 – b1x) = 0
• E[x(y – b0 – b1x)] = 0

• Son llamadas restricciones de momento.

16

16

8
05-04-2021

Derivando MCO usando método de momentos (M.D.M).

• La aproximación del método de momentos (MDM) implica imponer a


la población restricciones de momento sobre los momentos de la
muestra.

• ¿Que significa esto? Recordar que para E(X), la media de una


distribución de la población, el estimador de E(X) desde una muestra
es simplemente el promedio aritmético de la muestra.

17

17

Derivación de MCO
• Elegir valores de los parámetros que aseguren que las versiones muestreales de
las restricciones de momento son verdaderas.
• Versiones muestreales de las restricciones de momento son:

( )
n
n-1 å yi - bˆ 0 - bˆ1 xi = 0
i=1

( )
n
n-1 å xi yi - bˆ 0 - bˆ1 xi = 0
i=1 18

18

9
05-04-2021

Derivación de MCO
• Dada la definición de promedio de la muestra y las propiedades de
sumatoria, la primera condición puede ser reescrita como:

y = bˆ 0 + bˆ1 x,
ó
bˆ = y - bˆ x
0 1 19

19

Derivación de MCO

å x ( y - ( y - bˆ x) - bˆ x ) = 0
n

i i 1 1 i
i=1
n n

å x ( y - y) = bˆ å x ( x - x)
i i 1 i i
i=1 i=1
n n

å ( xi - x)( yi - y) = bˆ1å ( xi - x) 2

i=1 i=1 20

20

10
05-04-2021

Pendiente estimada por MCO


n

å ( x - x)( y - y)
i i Covarianza
bˆ1 = i=1
n

å ( x - x)
i
2 Varianza
i=1
n
siempre que å ( xi - x) > 0
2

i=1

21

21

Covarianza y Varianza de la muestra

Cov(x, y) =
å (x - x)(y- y)
n-1

Var(X) =
å (x - x) 2

n-1
22

22

11
05-04-2021

Resumen de la estimación de la pendiente β1 por MCO

• El estimador de la pendiente es la covarianza entre x e y


dividida por la varianza de x.
• Si x e y están positivamente correlacionados la pendiente
será positiva.
• Si x e y están negativamente. correlacionados la pendiente
será negativa.
• Se necesita que solo x varíe en la muestra.

23

23

MCO
• Intuitivamente MCO consiste en ajustar una línea a través de
los puntos de las muestras de manera que la SC de residuales
sea lo más pequeña posible (MC).
• El residual, û, es un estimador del término de error, u, y es la
diferencia entre la línea ajustada (función de regresión de la
muestra) y el punto de muestreo.

24

24

12
05-04-2021

Línea de regresión de la muestra, puntos de datos


de la muestra y los términos de error asociados.

y
y4 .
û4{ yˆ = bˆ0 + bˆ1 x

y3 .} û3
y2 û {.
2

y1 .} û1
x1 x2 x3 x4 x
25
25

Aproximación alternativa a la derivación.

• Problema de minimización
• Se desea elegir los parámetros (betas) de manera de minimizar:

å(uˆ ) = å( )
n n
yi - bˆ 0 - bˆ1 xi
2 2
i
i=1 i=1
• Ejemplo en Excel usando Solver

26

26

13
05-04-2021

Aproximación alternativa a la derivación.

• Si se usa calculo para resolver el problema de minimización para los dos


parámetros se obtienen las siguientes condiciones de primer orden, que
son las mismas obtenidas antes pero multiplicadas por n.

å ( y - bˆ )
n

i 0 - bˆ1 xi = 0
i=1

å x ( y - bˆ )
n

i i 0 - bˆ1 xi = 0
i=1
27

27

Propiedades algebraicas de MCO


• La suma de los residuales de MCO es cero.
• Así el promedio de los residuales de la muestra también es cero.
• La covarianza entre los regresores y los residuales de MCO es cero.
• La línea de regresión de MCO siempre pasa por el promedio de la
muestra.
• Ejemplo en Excel
✓Manual
✓Automático

28

28

14
05-04-2021

Propiedades algebraicas
n

n å uˆ i

å uˆ = 0 y así,
i
i=1
n
=0
i=1
n

å x uˆ = 0
i i
i=1

y = bˆ 0 + bˆ1 x
29

29

Terminología
Es posible pensar que cada observación está hecha de dos partes:
una explicada y la otra no explicada : yi = yˆ i + uˆ i luego se puede definir :

å ( y - y) suma de cuadrados totales (SST)


i
2

å ( yˆ - y) suma de cuadrados explicada (SSE)


i
2

å uˆ suma de cuadrados de residuales (SSR)


2
i

Luego SST = SSE + SSR


30

30

15
05-04-2021

Prueba de que SST = SSE + SSR

 i
( ) =  ( yi − yˆ i ) + ( yˆ i − y )
2

2
y y

SST = 
 i iuˆ + ( ˆ
y − y )2

=  uˆi2 + 2uˆi ( yˆ i − y ) + ( yˆ i − y ) 
2

=  uˆi2 + 2 uˆi ( yˆ i − y ) +  ( yˆ i − y )
2

= SSR + 2 uˆi ( yˆ i − y ) + SSE


Dado que  uˆ i =0
SST = SSR + SSE 31

31

Bondad de ajuste
• ¿Que tan bien se ajusta la línea de regresión a los datos de la
muestra?

• Se puede calcular la fracción de la suma de cuadrados totales que es


explicada por el modelo. R-cuadrado de regresión.

SSE SSR
R2 = =1−
SST SST

32

32

16
05-04-2021

Unidades de medida y forma


• Efectos de las unidades de medición
• Incorporación de no linealidades en regresión

33

Algunos modelos con logaritmos


1. Modelo lin - lin : y = b 0 + b1 x + u
y y
b1 = =
x x

2. Modelo lin - log : y = b 0 + b1 ln( x) + u


y y x y y b y
b1 = =  = =  1 =
 ln x x 1 x x x x 100 % x

34

17
05-04-2021

Algunos modelos con logaritmos

3. Modelo log - lin : ln( y ) = b 0 + b1 x + u


 ln y y 1 y 1 y y % y
b1 = =  =  =  b1  100 =
x x y y x x x

4. Modelo log - log : ln( y ) = b 0 + b1 ln( x) + u


 ln y y x y y % y
b1 = =  = =
 ln x x y x x % x

35

Algunos modelos con logaritmos

Modelo Variable dep. Variable indep. Interpretación β1

Nivel-Nivel y x Δy=β1Δx

Nivel-log y log(x) Δy=(β1/100)%ΔX

Log-nivel log(y) x %Δy=(100β1)ΔX

Log-log log(y) log(x) %Δy=β1%Δx

36

18
05-04-2021

Supuestos de Gauss-Markov
• Supuesto 1: Parámetros son lineales
el modelo de la población es lineal en sus parámetros: y = b0 + b1x + u
• Supuesto 2:Muestreo aleatorio
Se disponen de una muestra aleatoria de tamaño n, {(xi, yi): i=1, 2, …, n}, desde el
modelo de la población. Así el modelo de la muestra será yi = b0 + b1xi + ui
• Supuesto 3: variación en la variable explicativa. Existe variación en xi
• Supuesto 4. Media condicional cero
Valor esperado del error es cero para cualquier valor de la variable explicativa
E(u|x) = 0 y así E(ui|xi) = 0

37

37

Supuestos de Gauss-Markov
• Supuesto 5: homoscedasticidad
El error u tiene la misma varianza dado cualquier valor de la
variable explicativa
Var(u|x)=s2

38

38

19
05-04-2021

Insesgamiento de MCO
• Para entender el insesgamiento se necesita reescribir
nuestro estimador del parámetro de la población.

bˆ1 = 
(xi − x )( yi − y )  (xi − x )yi
=
 i ( x − x )2
 (xi − x )2
Sea : s x2   (x − x ) i
2

39

39

Insesgamiento

 (x − x )y = (x − x )(b + b x + u )
i i i 0 1 i i

=  (x − x )b +  (x − x )b x +  (x − x )u
i 0 i 1 i i i

= b  (x − x ) + b  (x − x )x +  (x − x )u
0 i 1 i i i i

Sabemos que : (x − x ) = 0, i

 (x − x )x =  (x − x ) = s
i i i
2 2
x

40

40

20
05-04-2021

Insesgamiento de MCO
asi, el numerador puede ser escrito como :
b1s x2 +  (xi − x )ui

Por lo tanto :
b1s x2 +  (xi − x )ui  (x − x )u
bˆ1 = = b1 +
i i

s x2 s x2

41

41

Insesgamiento de MCO
Sea d i = (xi − x )
 
así que : bˆi = b1 +  1 2  d i ui
 sx 

Entonces al aplicar va lor esperado :
 
E (bˆ1 ) = b1 +  1 2  d i E (ui )

 sx 
y dado que E(u i ) = 0 :
E (bˆ1 ) = b1
42

42

21
05-04-2021

Resumen de insesgamiento
• Los estimadores de b1 y b0 son insesgados
• Prueba de insesgamiento depende de nuestros cuatro supuestos. Si
alguno de los supuestos falla, entonces el método de MCO es no
necesariamente insesgado.
• Recordar que insesgamiento es una característica de las
distribuciones muestreales de bˆo y bˆ1 que nada dice acerca del
estimador que se obtiene de una muestra dada - En una muestra
dada podemos estar “cerca” o “lejos” desde el parámetro real.

43

43

Varianza de los estimadores de MCO


• Distribución de la muestra de nuestro estimador está
centrada alrededor del parámetro verdadero.
• Saber que tan desparramada es esta distribución.
• Mas fácil pensar acerca de la varianza bajo un supuesto
adicional.
• Asumir que Var(u|x) = s2(homoscedasticidad)

44

44

22
05-04-2021

Varianza de U (homocedástica)
Var (u | x) = E (u 2 | x) − E (u | x)
2

Sabemos que : E(u | x) = 0


Por tanto : Var (u | x) = E (u 2 | x) = E (u 2 ) = s 2

De esta manera :
Dado : y = b 0 + b1 x + u
E(y | x) = b 0 + b1 x
Var ( y | x) = s 2
45

45

Caso de homoscedasticidad

Copyright © 2009
South-Western/Cengage 46
Learning

46

23
05-04-2021

Caso de heteroscedasticidad

Copyright © 2009
South-Western/Cengage 47
Learning

47

Varianza de los estimadores de MCO


 
Recordar que : bˆ1 = b1 +  1 2 
 x
s d u i i

2
  
  
Var (bˆ1 ) = E bˆ1 − E ( bˆ1 ) = E bˆ1 − b1 = E  1 2 
2 2
  d i ui 
 x 
s 
 2
( d u )  =  ( d u ) =  1s   d E(u )
2 2 2
  2
= E  1 2  1  E 2 2

 s x 
i i
  s x2  i i 2 i i
 x

2 2
   1 
= 1 2
 x
s  d Var (u ) =
i
2
i
s x2


d s i
2 2

2 2
   
= s 2 1 2 
 x
s d i
2
== s 2  1 2  s x2
 x
s
s2
 Var (bˆ1 ) =
s x2 48

48

24
05-04-2021

Resumen varianza estimadores MCO


• A mayor varianza del error, s2, mayor es la varianza del estimador de
la pendiente.
• A mayor variabilidad en xi, menor es la varianza del estimador de la
pendiente.
• Como resultado una muestra de tamaño mayor debería disminuir la
varianza del estimador de la pendiente.
• Problema es que la varianza del error es desconocida.

49

49

Estimación de la varianza del error.


• No sabemos cual es la varianza del error, s2, pues no
observamos los errores, ui

• Lo que se observa son los residuales, ûi

• Podemos usar los residuales para formar un estimador del la


varianza del error.

50

50

25
05-04-2021

Estimación de la varianza del error.


uˆi = yi − bˆ0 − bˆ1 xi
= (b 0 + b1 xi + ui ) − bˆ0 − bˆ1 xi
= ui − (bˆ0 − b 0 ) − (bˆ1 − b1 )
Así, un estimador insesgado de s 2 es :
Var (uˆi ) = E uˆi − E (uˆi ) = E uˆi 
2 2

sˆ 2
=
 uˆ 2
i
= SSR / (n − 2 )
(n − 2)
51

51

Estimación de la varianza del error


ŝ = ŝ 2 = error estandar de la regresión
recordar que DE (bˆ1 ) = s
sx
si se sustituye s por ŝ, se tiene
el error estándar de bˆ1 ,

EE (bˆ1 ) =
s2
(
 (x i − x )2 )
para bˆ0

EE (bˆ0 ) = s *
( x ) 2

(n (x − x ) )
i
2
i
52

52

26

También podría gustarte