Está en la página 1de 77

UNIVERSIDAD NACIONAL DE SAN CRISTOBAL DE

HUAMANGA

1. MODELO DE REGRESIÓN SIMPLE


Material estrictamente académico basado en el curso del
BCRP
Agosto 2013

1
ESQUEMA

1. FUNCIÓN DE DENSIDAD NORMAL Y REGRESIÓN.

2. EL MODELO DE REGRESIÓN SIMPLE

3. EL TÉRMINO DE PERTURBACIÓN

4. LOS SUPUESTOS CLÁSICOS

2
1. FUNCIÓN DE DENSIDAD NORMAL Y REGRESIÓN

• Sea la función de densidad conjunta normal bivariada


  x    2         
2

1  1  x   x 
y

y
 
f ( x, y )  exp  
  
x
  2  y
         
y

2x  y 1    2

   
2
 2(1 )    
 x x y y

• Funciones de densidad de probabilidad marginal:

1 
 1  x  x  
2

f ( x)  exp    
2 x  2 x  
  
    
2

1  1 y
 
f ( y)  exp 
y

2 y 2    

  y   

3
1. FUNCIÓN DE DENSIDAD NORMAL Y REGRESIÓN

• La función de densidad condicional de Y dado X:

f ( x, y)
f ( y | x) 
f ( x)

1 
 1   y  

2

f ( y | x)  exp  2 2 
y    y   ( x   x )  
2y (1   )  2 y (1   )   x  
2 2

• Media y Varianza Condicionales:

y  y  y
E (Y | x)   y   ( x   x )    y    x    x   y| x   y| x x
x  x  x

Var(Y | x)  (1  2 )2y  Y2 | x

4
2. MODELO DE REGRESIÓN SIMPLE

• El Modelo de regresión simple:

y  E( y | x )  u

– y=variable dependiente, regresando, explicada, variable del lado


izquierdo (left-hand-side variable).

– x = variable independiente, regresor, explicativa, variables del lado


derecho (right-hand-side variable).

• Término de perturbación: u  y  E ( y | x)

5
2. MODELO DE REGRESIÓN SIMPLE

EYi X i E
(Y |
i
1  2 X i
X )   X
i i

YN 
uN

Y2 B

A
ui
Y1 

X1 X2 XN

6
2. MODELO DE REGRESIÓN SIMPLE

CAUSALIDAD EN EL MODELO DE REGRESIÓN LINEAL


• Es importante tener en cuenta que un modelo de regresión no
implica la existencia de causalidad entre las variables.

y  E ( y | x)  u x  E ( x | y)  u

• La causalidad - si existiera - estará determinada por la teoría


económica y reforzada por pruebas estadísticas adecuadas.

7
2. MODELO DE REGRESIÓN SIMPLE

• La teoría económica analiza las relaciones entre variables a través


de modelos. Las relaciones pueden ser uniecuacionales o
multiecuacionales, bivariadas o multivariadas.
• Además, las relaciones económicas pueden modelarse como
relaciones determinísticas o relaciones estocásticas.

(1) C  f (Y ) (2) C  1   2Y
(3) C  g (Y )  u (4) C  1  2Y  u

donde g(Y) es la función esperanza condicional o regresión.

8
2. MODELO DE REGRESIÓN SIMPLE

• Ejemplo: la relación lineal entre consumo e ingreso no es exacta.


Ello, explica que las relaciones entre variables económicas sea
estocástica (presencia de u).

9
3. TÉRMINO DE PERTURBACIÓN O ERROR

Definición
• Denominado término estocástico.
• La palabra estocástico proviene del griego stokhos que
significa objetivo o blanco de una ruleta:
– Una relación estocástica es una relación que no siempre
da en el blanco.
– Así, el término de perturbación mide los errores o fallas de
la relación determinística: u  Y  1 2X

10
3. TÉRMINO DE PERTURBACIÓN O ERROR

• La presencia del término de perturbación se justifica por los


siguientes argumentos (no mutuamente excluyentes):
– Omisión de la influencia de eventos sistemáticos, muy
importantes y poco importantes para la relación.
– Omisión de la influencia de innumerables eventos no
sistemáticos, muy importantes y poco importantes para la
relación.
– Error de medida de las variables utilizadas.
– Aleatoriedad del comportamiento humano ante situaciones
similares.

11
3. TÉRMINO DE PERTURBACIÓN O ERROR

– Omisión de variables explicativas: se excluyen variables que


no se pueden medir.
– Agregación de variables micro-económicas. Relaciones
individuales pueden tener distintos parámetros.
– Incorrecta especificación del modelo en términos de su
estructura: común en datos de series de tiempo, la variable
endógena puede depender de sus valores pasados.
– Incorrecta especificación funcional: relaciones lineales vs.
no lineales.

12
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y  1  2 X

1

X1 X2 X3 X4 X

Suponga que una variable Y es una función lineal de otra variable X,


con parámetros desconocidos β1 y β2 que vamos a desear estimar.

13
1
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y  1  2 X

1

X1 X2 X3 X4 X

Suponga que se cuenta con una muestra de 4 observaciones para las


variables X e Y.

14
2
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y  1  2 X

Q4
Q3
Q2
1 Q1

X1 X2 X3 X4 X

Si la relación entre X e Y fuera exacta, las observaciones estarían en


la línea recta y no habría problema de obtener los valores exactos de
los parámetros poblacionales β1 y β2.

15
3
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y P4

Y  1  2 X

P1 Q4
Q3
Q2
1 Q1 P3
P2

X1 X2 X3 X4 X

En la práctica, muchas relaciones no son exactas y los valores


observados de Y son distintas de los valores que tomaría si estuvieran
en la línea recta (Y vs. X)

16
4
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y P4

Y  1  2 X

P1 Q4
Q3
Q2
1 Q1 P3
P2

X1 X2 X3 X4 X

Así, el término de perturbación permite justificar tal divergencia y por


ello el modelo estadístico puede escribirse como Y = 1 + 2X + u,
donde u es el término de perturbación.

17
5
3. TÉRMINO DE PERTURBACIÓN O ERROR

Y P4

Y  1  2 X

P1 Q4
u1 Q3
Q2
1 Q1 P3
P2
1  2 X1

X1 X2 X3 X4 X

Cada valor de Y tiene un componente no estocástico, 1 + 2X, y un


componente u. Por ejemplo, la primera observación tiene estos dos
componentes.

18
6
4. LOS SUPUESTOS CLÁSICOS
• SC1:
– Linealidad de la esperanza condicional. ¿Término de perturbación
aditivo? Sí.
– Regresores Adecuados.
– Parámetros Constantes.

• SC2: Supuesto de Regresión

• SC3: Rango Completo por columnas (no multicolinealidad).

• SC4: Ausencia de relación estadística entre X y perturbaciones.

• SC5: Perturbaciones esféricas: Homocedasticidad y No Autocorrelación.

19
4. LOS SUPUESTOS CLÁSICOS
SC1: LINEALIDAD DE LA ESPERANZA CONDICIONAL
1. Lineal en parámetros y variables: en general para k
variables:
y1  1 x11   2 x12   3 x13     k x1k  u1
y2  1 x21   2 x22   3 x23     k x2 k  u2

yn  1 xn1   2 xn 2   3 xn 3     k xnk  un
Notación matricial:
 y1   x11 x12  x1k   1  u1 
y  x  x2 k    u 
y  X  u  2   21
x22  2   2
           
       
 n  ( n1)  xn1
y xn 2  xnk  ( nk )   k  ( k 1) un  ( n1)

20
4. LOS SUPUESTOS CLÁSICOS

• Coeficientes de la Regresión y Efectos Marginales


• Interpretación de los parámetros

Tabla 1: Interpretación de los coeficientes del modelo de regresión


X Log(X)
Efecto Marginal
Cambio en el nivel de Y ante un
Y Cambio en el nivel de Y ante un
cambio porcentual de X
cambio en una unidad de X
(Modelo Semilog)
Semi-elasticidad de Y ante X Elasticidad de Y ante X
Cambio porcentual de Y ante un Cambio porcentual de Y ante un
Log(Y)
cambio en una unidad de X cambio porcentual de X: ()
(Modelo Semilog) (Modelo Doble log)

21
4. LOS SUPUESTOS CLÁSICOS

2. Regresores adecuados: el modelo especificado es el “verdadero”

• No se omiten variables importantes.


• No se incluyen variables redundantes.

3. Los parámetros son constantes:

• Para la muestra analizada: individuos o tiempo.


• Al menos que fluctúen (poco) alrededor de un valor constante.
• No hay cambio estructural o de régimen (series de tiempo), cualidades
(corte transversal).

22
4. LOS SUPUESTOS CLÁSICOS

SC2: SUPUESTO DE REGRESIÓN:

• MEDIA INCONDICIONAL DEL TÉRMINO DE PERTURBACIÓN IGUAL


A CERO:
E( ui )  0, i  1, , n E( u )  0
– Regresores son fijos en muestreo repetido.
– Regresores son variables aleatorias y con distribución totalmente
independiente del término de perturbación.

• MEDIA CONDICIONAL DEL TÉRMINO DE PERTURBACIÓN DADO X


ES IGUAL A CERO: E( ui X )  0, i  1,, n

– Regresores son variables aleatorias y con distribución independiente en


media del término de perturbación.

23
4. LOS SUPUESTOS CLÁSICOS

SC3: RANGO COMPLETO POR COLUMNAS DE X


– No es posible que n<k
• El número de observaciones es mayor al número de
regresores: n > k (variación de los regresores).
– Columnas linealmente independientes
• No existen relaciones lineales exactas entre regresores:
Ausencia de Colinealidad o Multicolinealidad.
– Implicancias:
• X’X es positivo definida
• la inversa de (X’X) existe!

24
4. LOS SUPUESTOS CLÁSICOS

SC4: AUSENCIA DE RELACIÓN ESTADÍSTICA ENTRE


REGRESORES Y PERTURBACIONES:

Se presentan dos casos:

– Regresores Fijos en muestras repetidas (no estocásticos).


– Regresores Estocásticos:
• Independencia total.
• Independencia en media.
• Ausencia de relación lineal contemporánea.

25
4. LOS SUPUESTOS CLÁSICOS

• Independencia Total de las perturbaciones y regresores.

f ui , X ij   f ui  f X ij  i  1, n j  1,, K

• Independencia en media de las perturbaciones.

E ui | X ij   E ui  i  1, n j  1,, K

Si se cumple SC2 E ui   0 , entonces : E ui | X ij   0

26
4. LOS SUPUESTOS CLÁSICOS

• Ausencia de relación lineal contemporánea entre perturbaciones


y regresores.

Cov( X i j ,ui )  0 i  1, n j  1,, K

Si E ui   0 , entonces :

Cov( X ik ,ui )  E( X ik ui )  0 i  1, , n k  1,, K

27
4. LOS SUPUESTOS CLÁSICOS

SC5: PERTURBACIONES ESFÉRICAS

– Homocedasticidad: E [ ui2 | X ]   2 i  1, , n

• Supuesto sobre el segundo momento condicional.

• Si se cumple SC2 y SC4 (al menos independencia en media):

Var( ui | X )  E [( ui  E [ ui | X ])2 | X ]
i  1, , n
 E [u | X ] 
2
i
2

28
4. LOS SUPUESTOS CLÁSICOS

– No autocorrelación:
E [ ui u j | X ]  0 i  j

• Si se cumple SC2 y SC3:

Cov[ ui ,u j ] | X  E( [ ui  E( ui )][ u j  E( u j )] | X )
i  j
Cov[ ui ,u j | X ]  E( ui u j | X )  0

• En series de tiempo: ausencia de correlación serial.

29
4. LOS SUPUESTOS CLÁSICOS

– Perturbaciones Esféricas: Notación matricial

E [ uu' | X ]   2 I n

• La matriz de segundos momentos es proporcional a la identidad.

• Si se cumple SC2 y SC4 (al menos independencia en media):

Var( u )  E [ uu' | X ]   2 I n

30
ESTIMACIÓN POR MÍNIMOS
CUADRADOS ORDINARIOS (MCO)

31
ESQUEMA

1. Metodología de Estimación MCO: MRLC2.

2. Metodología de Estimación MCO: MRLCK.

3. Características Muestrales de los estimadores MCO.

4. Regresión Ortogonal.

5. Estimación MCO como Proyección.

6. Aplicaciones

32
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

• Dado el modelo de regresión poblacional y el estimado:

Yi  1   2 X i  ui Yˆi  ˆ1  ˆ2 X i  b1  b2 X i

se definen los residuos de cualquier línea ajustada como:

ei  Yi  Yˆi  Yi  (b1  b2 X i )

• Cada valor observado de la variable endógena puede expresarse


como:
Yi  Yˆi  ei
Yi  b1  b2 X i  ei

33
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4

P1

P3
P2

X1 X2 X3 X4 X

En la práctica sólo observamos los puntos P.

34
7
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X

P1

P3
P2
b1

X1 X2 X3 X4 X

Podemos usar los puntos P para dibujar una línea recta que sea una
aproximación de Y = 1 + 2X. Esta línea estimada será Y = b1 + b2X, donde b1
es un estimador de 1 y b2 es un estimador de 2.

35
8
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X

R3 R4
R2
P1

R1 P3
P2
b1

X1 X2 X3 X4 X

La linea se llama modelo ajustado y los valores de Y estimados se llaman


valores ajustados de Y. Se representan por la altura de los puntos R.

36
9
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
e4 Ŷ  b1  b2 X

R3 R4
R2
e1 P1 e3
e2
R1 P3
P2
b1

X1 X2 X3 X4 X

La discrepancia entre el valor observado y el valor ajustado de Y se conoce


como residuo.

37
10
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X

R3 R4 Y  1  2 X
R2
P1

1 R1 P3
P2
b1

X1 X2 X3 X4 X

Importante: Note que el residuo no es igual al término de perturbación.

38
11
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X
Y  1  2 X

P1 Q4
Q3
Q2
1 Q1 P3
P2
b1

X1 X2 X3 X4 X

El término de perturbación en cada observación es el responsable de la


divergencia entre el valor observado y el componente no aleatorio de la
verdadera relación.

39
12
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X

R3 R4 Y  1  2 X
R2
P1

1 R1 P3
P2
b1

X1 X2 X3 X4 X

El residuo es la discrepancia entre el valor observado y el valor ajustado de


la variable endógena.

40
13
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
Ŷ  b1  b2 X

R3 R4 Y  1  2 X
R2
P1

1 R1 P3
P2
b1

X1 X2 X3 X4 X

Si la regresión es “buena”, los residuos y los valores del término de


perturbación serán similares (ver primera y segunda obs.), pero son
conceptualmente distintos.

41
14
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
u4 Ŷ  b1  b2 X
Y  1  2 X
Q4

1 Y4  1  2 X 4
b1

X1 X2 X3 X4 X

Las dos rectas serán analizadas en el curso. Cada una permite la


descomposición del valor de Y. Esta descomposición se ilustrará con la
cuarta observación.

42
15
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
u4 Ŷ  b1  b2 X
Y  1  2 X
Q4

1 Y4  1  2 X 4
b1

X1 X2 X3 X4 X

Usando la relación teórica, Y puede descomponerse en un componente no


estocástico y un componente aleatorio.

43
16
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
u4 Ŷ  b1  b2 X
Y  1  2 X
Q4

1 Y4  1  2 X 4
b1

X1 X2 X3 X4 X

Es una descomposición teórica porque desconocemos los valores de β1, β2


o los valores del término de perturbación.

44
17
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Y P4
e4 Ŷ  b1  b2 X

R4 Y  1  2 X

Ŷ4  b1  b2 X 4
1
b1 Yˆ  valor ajustado

Y  valor observado

X1 X2 X3 X4 X

La otra descomposición es en referencia a la línea ajustada. En cada


observación, el valor observado de Y es igual al valor ajustado de Y más el
residuo. Esta es una descomposición operativa que se utilizará para usos
prácticos.
45
18
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

• El Principio de Mínimos Cuadrados consiste en:


n
Min SCR   ei2  e12  ...  en2
b1 ,b2
i 1

• Condiciones de Primer Orden.


n
 e
n
  ei2
2
i
i 1
0 i 1
0
b1 b2
• Ecuaciones Normales:
n n

e
i 1
i 0 xe
i 1
i i 0

46
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

- Primera condición de primer orden:

SCR
 0   2 Yi  b1  b2 X i   0
b1
X  X i

Y  b n  b  X
n
i 1 2 i 0
X i  nX
b1  Y  b2 X
- Segunda condición de primer orden:

SCR
 0   2 Yi  b1  b2 X i X i  0
b2

23
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

SCR
 0   2 Yi  b1  b2 X i X i  0
b2
 Y  b  b X X  0
i 1 2 i i

Y X  b  X  b  X  0
i i 1 i 2 i
2

 Y X  Y  b X  X  b  X  0
i i 2 i 2 i
2

Y X  Y  X  b X  X  b  X  0
i i i 2 i 2 i
2

 Y X  nYX  b nX  b  X  0
i i 2
2
2 i
2

 Y X  nY X  X  X Y  Y 
b  i
 i i i

 X  nX  X  X 
2 2 2 2
i i

23
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

Demostración de Resultados Importantes:

 X i  X Yi  Y    X iYi   X iY   XYi   XY


  X iYi  Y  X i  X  Yi  nXY
  X iYi  Y nX   X nY   nXY
  X iYi  nXY

Análogamente:

 X i  X  2
  i
X 2
2 XX i  X 2
  i
X 2
2 nX 2
 nX 2

  X i2  nX 2

34
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

• Estimador MCO de beta1 b1  Y  b2 X

• Estimador MCO de beta2:


 X  X Yi  Y 
n n

 Y  Y 
2
i i
b2  i 1
b2  rYX i 1

SC 3 :  X i  X   0
n

 X i  X
2 n n

 i 
2

2
i 1
X X
i 1 i 1

• Estos estimadores replican los poblacionales (normalidad):

Poblacional Poblacional Muestral Muestral



Y1 YX/ X   Y   Y  X
 Y / X   Y   Y  X bˆ1 YYˆ Xb2 X ˆ  Y  ˆ X
X X

Y / X   Y 2YYX/ X   Y bY / X  r
SE (Y )
Y / X  r
SE (Y )
X X 2 SE ( X ) SE ( X )

50
1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2

• Estimador de la varianza del término de perturbación.

– No se puede estimar a partir de una muestra de valores de u,

pues depende de los parámetros poblacionales no observados

beta1 y beta2.

– Puede obtenerse un estimado a partir de los errores de

estimación. El estimador es:

1 n 2
ˆ 2
MCO s 
2

n  2 i 1
ei

51
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

• El modelo de regresión poblacional de “k” variables, para una

observación o período de tiempo, se denota por:

Yi  1   2 xi 2  3 xi 3     k xik  ui

 1 
y  X  u
    
  k 
y el modelo de regresión estimado:

Yˆi  b1  b2 xi 2  b3 xi 3    bk xik
Yˆi  ˆ1  ˆ2 xi 2  ˆ3 xi 3    ˆk xik

52
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

• Matricialmente, para las n observaciones:

y  X  u Y1   X 11 X 12  X 1k   1  u1 
Y  X X 22  X 2 k    u 
 
2
  21   2
  2
           
       
 n  ( n1)  X n1
Y X n2  X nk  ( nk )   k  ( k 1) u n  ( n1)

• Entonces, dado ŷ  Xb , se tiene:

y  ŷ  e  Xb  e

53
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

• Suma de los cuadrados de los residuos o errores de estimación:


n
SCR(b)   ei2  e' e   y  yˆ '  y  yˆ 
i 1

SCR( b )  y' y  2b' X ' y  b' X ' Xb


SCR( b )  y' y  2 y' Xb  b' X ' Xb

• De acuerdo al Principio de Mínimos Cuadrados Ordinarios, se

minimiza SCR, lo cual implica que se cumpla las C.P.O. y C.S.O:

54
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

Reglas de derivación de matrices


SCR  a ' x    Ax 
 0  ( X ' X )b  X ' y  a;  A' ;
b x x
  x' Ax 
 2 x' A'  2 Ax, A : matriz simétrica
 2 SCR x
 2X' X positivo definida   x' Ax 
bb'  x' x, x' x : matriz cuadrada
A

• Las Ecuaciones Normales se obtienen a partir de las

Condiciones de Primer Orden (C.P.O.):

( X ' X )b  X ' y  X' e  0

55
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

• En el modelo de regresión lineal clásico de k variables se


obtiene k ecuaciones normales: una para cada parámetro
especificado en la ecuación de regresión.

• A partir de la CPO se obtiene el vector de estimadores de


MCO del MRLCK:

b  ˆ MCO  X' X X' y


1

• Supuesto de “rango completo por columnas” es importante!


Para derivar el estimador MCO sólo se necesita que X’X
tenga inversa y ello se cumple sólo si se cumple el SC 3.

56
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK
Estimador de la Varianza s2.

• Es razonable obtener el estimador a partir de la suma de

cuadrados de los residuos:

e  y  Xb
e  y  X(X' X) 1 X' y
e  (I n  X(X' X) 1 X' ) y
e  My

• Donde M es una matriz simétrica e idempotente; además:


M'  M; M  M2 Me  e
MX  0
57
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK
• Con estas propiedades, se tiene que:

e  My  M ( Xβ  u)  MXβ  Mu
e  Mu
• Elevando al cuadrado los residuos:

e'e  (Mu)' Mu  u' M'Mu


e'e  u' Mu
• Aplicando la esperanza matemática a esta expresión y

aprovechando las propiedades de la traza obtenemos:

58
2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK

E (e' e )  u2 (n  k )
 e' e 
E   u
2

nk 
• Así, el estimador de la varianza del término de perturbación,

y de la regresión, es:

e' e
s  ˆ u2 
2

nk
• El error estándar de la estimación o error estándar de la

regresión, s, es la desviación estándar de los valores de Y

alrededor del plano de regresión.


59
3. CARACTERÍSTICAS MUESTRALES DE MCO

• Presentan tres principales características asociadas a las EN:

– La línea de regresión estimada pasa por los valores medios

muestrales de las variables. Y  b1  b2 X


– El promedio observado es igual al promedio estimado: Y  Yˆ

– Los residuos de MCO tienen correlación cero con la variable

independiente (en la muestra). Corr( X , e )  0

– No existe correlación muestral entre los valores estimados de

la variable endógena y los residuos. Corr( ŷ ,e )  0

60
3. CARACTERÍSTICAS MUESTRALES DE MCO

• Para el modelo de regresión clásico de k variables:

 La ecuación de regresión o hiperplano de regresión pasa por

los puntos medios del espacio “k” dimensional.

Y  b1  b2 X 2  b3 X 3    b3 X k y  Xb
 El promedio observado es igual al promedio estimado: i ' y  i ' yˆ
 La correlación muestral de los regresores con los residuos es

cero. X' e  0
 Los valores estimados de la variable dependiente no están

correlacionados con los residuos. ˆy' e  0

61
6. REGRESIÓN ORTOGONAL

• Sea el siguiente MRLC3: Yi  1  2 X 2i  3 X 3i  ui

• Los estimadores MCO son:


b1  Y  b2 X 2  b3 X 3
n n n n

x y x x y x
2i i
2
3i 3i i x
2 i 3i
b2  i 1 i 1 i 1 i 1
2
n n
 n


i 1
x 2 i  3i
2

i 1
x 2
  
 i 1
x 2 i 3i 
x

n n n n

x y x x y x
3i i
2
2i 2i i x
2 i 3i
b3  i 1 i 1 i 1 i 1
2
n n
 n


i 1
x2i  x3i    x2i x3i 
2

i 1
2

 i 1 
62
4. REGRESIÓN ORTOGONAL

• Si se estima el modelo de dos variables: Yi  1  2 X 2i  ui


• Los estimadores MCO son: n n
b12   x2i yi  2i
x 2

i 1 i 1
• Además:
n n n n

x y x x y x
2i i
2
3i 3i i 2 i 3i x
ˆ 12  ˆ 13ˆ 32
b12,3  i 1 i 1 i 1 i 1

n n
 n 
2
1  r232

i 1
x 2 i  3i
2

i 1
x 2
  
 i 1
x 2 i 3i 
x

• Si los regresores no están correlacionados (ortogonales), las


pendientes del modelo múltiple son iguales a las pendientes de
regresiones individuales.

63
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• M es la Matriz Generadora de Residuos: My  e

 M (nxn), simétrica, idempotente, dim(M)=tr(M).


 M es la Matriz Aniquiladora: la proyección de X sobre X
es perfecta y el residuo es cero. MX  0
• P es la Matriz de Proyección sobre el espacio columna X

ŷ  Xb  Py

 P (nxn), simétrica, idempotente, dim(P)=tr(P).


 La proyección de X sobre X es igual a X: PX  X

64
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Además, PM = MP = 0.
• Entonces, la estimación por MCO particiona y en dos
componentes ortogonales:

y  yˆ  e
y  Py  My

• Teorema de Pitágoras: Suma de Cuadrados

y' y  yˆ ' yˆ  e' e

65
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

66
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

X1

67
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

X2

X1

68
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

X2

X1

69
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

X2
Xb

X1

70
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO:

X2
Xb

X1

71
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO: y*

X2
Xb

X1

72
5. ESTIMACIÓN MCO COMO PROYECCIÓN

• Geometría de MCO: y*

X2
Xb
Xb*

X1

73
5. ESTIMACIÓN MCO COMO PROYECCIÓN
• A través del uso de matrices : caso de dos variables
1000

950
Se obtiene una
línea de regresión

900
log (Circulante)

850 Estimado
Observado

800

750
460 470 480 490 500 510 520 530 540
log (PBI)
74
6. APLICACIÓN: Estimación del salario por hora

EARNINGS vs. S
200
Earnings: salario por hora
S: años de educación
160
Mayores observaciones
para eduación básica y
EARNINGS

120 secundaria. Pocas


observaciones para
80 mayores años de estudio
en la muestra analizada.

40

0
6 8 10 12 14 16 18 20 22
S

1
6. APLICACIÓN: Estimación del salario por hora
Dependent Variable: EARNINGS
Method: Least Squares
Date: 07/31/11 Time: 22:59
Sample: 1 540
Included observations: 540

Variable Coefficient Std. Error t-Statistic Prob.

C -19.79196 3.585928 -5.519341 0.0000


S 2.870943 0.255034 11.25710 0.0000

R-squared 0.190639 Mean dependent var 19.93339

Adjusted R-squared 0.189135 S.D. dependent var 16.43569


S.E. of regression 14.80002 Akaike info criterion 8.230831
Sum squared resid 117843.8 Schwarz criterion 8.246725
Log likelihood -2220.324 F-statistic 126.7222

Durbin-Watson stat 1.885753 Prob(F-statistic) 0.000000

1
6. APLICACIÓN: Estimación del salario por hora
Dependent Variable: EARNINGS

EARNINGS  19.79  2.87S


Method: Least Squares
Date: 07/31/11 Time: 22:59
Sample: 1 540
Included observations: 540

Variable Coefficient Std. Error t-Statistic Prob.

C -19.79196 3.585928 -5.519341 0.0000


S 2.870943 0.255034 11.25710 0.0000

R-squared 0.190639 Mean dependent var 19.93339

Adjusted R-squared 0.189135 S.D. dependent var 16.43569


S.E. of regression 14.80002 Akaike info criterion 8.230831
Sum squared resid 117843.8 Schwarz criterion 8.246725
Log likelihood -2220.324 F-statistic 126.7222

Durbin-Watson stat 1.885753 Prob(F-statistic) 0.000000

También podría gustarte