Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Minimos Cuadrados Ordinarios
Minimos Cuadrados Ordinarios
1 X21
Y1
1 X22
Y2
y=
..
.. , X = ..
.
.
.
Yn
...
...
..
.
1 X2n . . .
i = 1, . . . , n
Xk1
Xk2
..
,
.
Xkn
1
2
=
..
.
u1
u2
u=
.. .
.
un
La forma 1 y su versi
on compacta dada por la forma 2 son la representaci
on escalar
del modelo lineal general, y son u
tiles para introducir los conceptos b
asicos del metodo
de estimaci
on de mnimos cuadrados. Sin embargo, para profundizar en el estudio del
analisis de regresion resulta m
as conveniente la forma 3 o forma matricial del modelo
lineal general.
Este captulo describe el
algebra de mnimos cuadrados, es decir, un metodo estadstico para obtener estimaciones de los par
ametros desconocidos 1 , . . . , k a partir
de un conjunto de observaciones sobre las variables Y, X2 , . . . , Xk . El metodo de estimacion de mnimos cuadrados se presenta utilizando tanto la forma escalar como la
forma matricial del modelo lineal general. Se deja como ejercicio para el alumno, el
desarrollo de este procedimiento para la forma 2 del modelo.
2.1.
Ecuaciones normales
2.1.1. Forma escalar. Si en la forma escalar del modelo lineal general reemplazamos los par
ametros desconocidos 1 , . . . , k por las estimaciones 1 , . . . , k , obtenemos el modelo estimado
i ,
Yi = 1 + 2 X2i + + k Xki + u
i = 1, . . . , n
i = 1, . . . , n
n 3. El residuo u
i es la diferencia entre el valor observado Yi y el valor
Definicio
ajustado Yi ,
u
i = Yi Yi = Yi 1 2 X2i k Xki ,
11
i = 1, . . . , n
12
i = 1, . . . , n
on de Yi dada por el
en donde podemos interpretar el valor ajustado Yi como la predicci
on asociado. Es claro que distinmodelo estimado y el residuo u
i como el error de predicci
tas estimaciones de los par
ametros conducir
an a distintos residuos o valores ajustados,
siendo preferibles aquellas estimaciones que proporcionan un mayor n
umero de residuos
peque
nos o, equivalentemente, un mayor n
umero de valores ajustados muy pr
oximos a
los valores observados. Esta es la idea que subyace al metodo de estimaci
on de mnimos
cuadrados ordinarios.
u
2i =
i=1
i=1
u
i
diferenciable. Los valores j (j = 1, . . . , k) que minimizan Q son los que cumplen las
condiciones de primer orden:
n
Q
1 ) = 0
=
2(Yi 1 2 X2i k Xki )(
1
i=1
(2.1)
Q
=
2
i=1
..
.
u
i / 1
u
i
u
i / 2
u
i
Q
=
2(Yi 1 2 X2i k Xki )( Xki ) = 0
k
i=1
u
i / k
u
i
i=1
1
(2.2)
X2i + 2
i=1
i=1
i=1
Xki + 2
i=1
X2i + + k
2
X2i
+ + k
Xki =
i=1
Yi
i=1
X2i Xki =
i=1
Xki X2i + + k
X2i Yi
Xki Yi
i=1
..
.
n
i=1
2
Xki
=
i=1
13
cuya soluci
on permite encontrar las estimaciones de mnimos cuadrados j (j = 1, . . . , k).
Cuando k es mayor que dos, es conveniente escribir (2.2) en forma matricial:
n
n
n
...
1
i=1 X2i
i=1 Xki
i=1 Yi
n
n
n
2
X2i
...
X2i Xki 2 ni=1 X2i Yi
i=1 X2i
i=1
i=1
(2.3)
=
..
..
..
..
..
..
.
.
.
.
.
n
n
n
n
2
k
i=1 Xki
i=1 Xki X2i . . .
i=1 Xki
i=1 Xki Yi
X X
X y
n
n
1
n
...
i=1 X2i
i=1 Xki
i=1 Yi
n
n
n
2
X2i
...
X2i Xki ni=1 X2i Yi
2 i=1 X2i
i=1
i=1
(2.4) . =
..
..
..
..
..
.
.
.
.
.
..
n
n
n
n
2
k
i=1 Xki
i=1 Xki X2i . . .
i=1 Xki
i=1 Xki Yi
(X X)1
X y
cuyo c
alculo requiere invertir una matriz no singular de orden k k.
Observaci
on 2. Si la matriz X X es singular, entonces tenemos innitas estimaciones que conducen a la misma suma de cuadrados de los residuos.
2.1.2. Forma matricial. Un desarrollo similar puede seguirse para el modelo en
forma matricial. Reemplazando el vector de par
ametros desconocidos por el vector de
14
=(y X)
Q=u
u
+
X X
=y y X y y X
X y +
X X
=y y 2
X y = y X,
que se cumple porque
X y es un escalar
A + C B , y el resultado
Vemos que u
u
depende de una forma lineal y de
1 1 y es igual a su traspuesta y X.
i j
n 1. Bajo el supuesto de que X X es no singular, la matriz X X es una
Proposicio
matriz denida positiva.
i=1
zi2 0
2.2.
Propiedades num
ericas del m
etodo de mnimos cuadrados
u
i Xji = 0,
j = 1, . . . , k
i=1
15
= X u
= 0k
X y X
Xj .
Corolario 1. Si el modelo incluye termino constante, la suma de los residuos es
igual a cero.
n. Si el modelo incluye termino constante, la primera variable asociDemostracio
ada a 1 , X1i , es una variable de unos, de modo que
n
u
i X1i =
i=1
u
i = 0
i=1
Yi u
i = 0
i=1
Yi u
i =
i=1
(1 + 2 X2i + + k Xki )
ui
i=1
=1
u
i + 2
i=1
i=1
u
i X2i + + k
u
i Xki = 0
i=1
u
= X u
= 0k
y
i=1
i=1
1
1
Yi =
Yi
n
n
n. De la descomposici
Demostracio
on Yi = Yi + u
i , se cumple que
n
i=1
i=1
i=1
i=1
i=1
1
1
1
1
1
Yi =
(Yi + u
i ) =
u
i =
Yi +
Yi
n
n
n
n
n
Observaci
on 3. El corolario anterior indica que el hiperplano de regresi
on Yi =
2 , . . . , X
k ).
1 + 2 X2i + + k Xki pasa por el punto (Y , X
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
16
Observaci
on 4. La propiedad numerica fundamental del metodo de mnimos cuadrados (los residuos y las variables explicativas son ortogonales) nos sugiere una regla pr
actica para especicar las ecuaciones normales. El punto de partida es el modelo estimado
Yi = 1 + 2 X2i + + k Xki + u
i ,
i = 1, . . . , n
La j-esima ecuaci
on normal puede obtenerse multiplicando el modelo estimado por la
variable j-esima Xji
Xji Yi = 1 Xji + 2 Xji X2i + + k Xji Xki + Xji u
i ,
i = 1, . . . , n
Xji Yi = 1
i=1
porque
Xji + 2
i=1
i .
i=1 Xji u
i=1
Xji X2i + + k
Xji Xki ,
j = 1, . . . , k
i=1
An
alogamente, premultiplicando el modelo estimado
+u
y = X
X y = X X
Ahora podemos encontrar f
acilmente la expresi
on del estimador de mnimos cuadrados
para la forma escalar compacta del modelo. Premultiplicando el modelo estimado
+ ui ,
yi = xi
i = 1, . . . , n
xi yi =
i=1
+
xi xi
i=1
2.3.
i = 1, . . . , n
i=1
xi ui ,
xi xi
i=1
1
i=1 Xji ui
= 0. De aqu, el estimador
xi yi
i=1
Regresi
on con datos centrados
(2.5)
i = 1, . . . , n
i=1
i=1
i=1
i=1
i=1
1
1
1
1
1
1 + 2
Yi =
X2i + + k
Xki +
u
i
n
n
n
n
n
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
17
(2.6)
i = 1, . . . , n
i ,
yi = 2 x2i + + k xki + u
i = 1, . . . , n
n
n
n
2
x
.
.
.
x
x
x
y
2
2i i
i=1 2i
i=1 2i ki
i=1.
.
..
..
.
.
.
.
=
(2.8)
.
.
.
.
.
n
n
n
2
k
x
x
.
.
.
x
x
y
i=1 ki 2i
i=1 ki
i=1 ki i
cuyo calculo requiere invertir una matriz de menor orden (k 1) (k 1). El termino
constante se obtiene de la ecuaci
on (2.6) que relaciona las medias
2 k X
k
1 = Y 2 X
2.4.
Regresi
on con datos tipicados
Las pendientes estimadas del modelo lineal general miden la respuesta de la variable
dependiente a cambios unitarios en las variables explicativas. El tama
no de estas estimaciones depende de las unidades en que se midan las variables. De aqu, para apreciar
la importancia relativa de cada variable explicativa es conveniente usar datos tipicados.
n 7. Una variable tipicada, normalizada o estandarizada es una transDefinicio
formaci
on lineal de una variable observada que se obtiene restando de cada observaci
on
la media y diviendo la desviaci
on resultante por la desviaci
on tpica. Para las variables
del modelo lineal general, las variables tipicadas son
(Xji X)
(Yi Y )
y xji =
yi =
SY
S Xj
en donde
SY2 =
i=1 (Yi
Y )2
2
=
SX
j
i=1 (Xji
n
son las varianzas muestrales de Y y Xj , respectivamente.
j )2
X
Observaci
on 5. Las variables tipicadas tienen media cero y varianza unitaria. Por
ejemplo, la variable dependiente tipicada tiene media
n
n
n
(Yi Y )/SY
Yi nY
Y Y
i=1 yi
=0
= i=1
= i=1
=
n
n
SY n
SY
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
18
y varianza
i=1 (yi
0)2
i=1 [(Yi
S2
Y )/SY ]2
= Y2 = 1
n
SY
n 3. La regresi
Proposicio
on con datos tipicados es
yi = 2 x2i + + k xki + u
i ,
i = 1, . . . , n
u
i = u
i /SY (i = 1, . . . , n)
i = 1, . . . , n
x2j
xki
i = 1, . . . , n
u
i
=
=
S Xj
S Xj
S Xj
S Xj
a igual a uno cuando Xji = SXj . A su vez, un cambio de una
en donde xji ser
desviaci
on tpica en Xj implica la siguiente respuesta en Y
Yi = Yi Yi1 = j SXj
o, en terminos de su desviaci
on tpica,
SX
Yi
= j j = j
Sy
SY
n 5. El coeciente de determinaci
Proposicio
on es invariante a transformaciones
lineales de las variables del modelo y, en particular, a la tipicaci
on de datos.
n. El coeciente de determinaci
Demostracio
on en el modelo con datos tipicados
es
R
n
n
n
2
2i /Sy2
i
2i
i=1 u
2
i=1 u
i=1 u
= 1 n
=
1
=
1
2
n
2 =R
n
y
y
i=1 i
i=1 i
19
2.5.
Las matrices P y M
M = I X(X X)1 X
n 8. La transformaci
Definicio
on lineal de un vector y a un vector z, ambos de
orden n 1, se dene como z = Ay, en donde A es una matriz cuadrada n n de
coecientes.
n 9. Una transformaci
Definicio
on lineal z = Ay es una proyecci
on, si la matriz
20
n 8. El rango de P es k y el de M n k.
Proposicio
n. El rango de una matriz idempotente es igual a su traza. De aqu,
Demostracio
tr(P) =tr[X(X X)1 X ] = tr[(X X)1 X X] = tr(Ik ) = k
tr(M) =tr(In P) = tr(In ) tr(P) = n k
en donde se han utilizado las siguientes propiedades de la traza: trAB = trBA y tr(A +
B) = trA + trB.
Regresi
on particionada
y = Xr
(2.9)
21
Ms y = Ms Xr
o bien
r + u
Ms y = Ms Xr
Aplicando la formula del estimador de mnimos cuadrados a este modelo de regresion,
tenemos
r = (Xr Ms Ms Xr )1 Xr Ms Ms y = (Xr Ms Xr )1 Xr Ms y
r
r
s =(Xs Mr Xs )1 Xs Mr y
y = i1 + Xs
y premultiplicando por Mi = In i(i i)1 i tenemos
s + u
Mi y = Mi Xs
en donde
Y1 Y
Y2 Y
Mi y = .
..
Yn Y
2 . . .
X21 X
2 . . .
X22 X
Mi Xs =
..
.
...
X2n X2 . . .
k
Xk1 X
k
Xk2 X
..
k
Xkn X
la media Mi z = [Zi Z]
n. El producto Mi z se interpeta como los residuos en la regresi
on de
Demostracio
z sobre el vector i
z = 1 i + u
22
por tanto,
Pero 1 = (i i)1 i z = Z,
Z
Z1
Z Z
= .2 .
u
= z Zi
. .
. .
Z
Zn
2.7.
(Yi Y )2
SCT =
i=1
(Yi Y )2 =
(Yi Y )2 +
u
2i
i=1
i=1
i=1
el primer componente, que se denomina suma de cuadrados explicada SCE, mide la porci
on de la variaci
on total de la variable dependiente explicada por la regresi
on, mientras
que el segundo, la suma de cuadrados de los residuos SCR, mide la variaci
on residual o
no explicada. Se tiene que
SCT = SCE + SCR
n. Observando que Yi Y = Yi Y + Yi Yi , tenemos
Demostracio
n
n
n
2
(Yi Y )2 =
2i + 2(Yi Y )
ui
(Yi Y ) + (Yi Yi ) =
(Yi Y )2 + u
i=1
i=1
i=1
porque
i=1
n
n
(Yi Y ) +
u
2i
=
i=1
i = 0 e Y n u
i=1 Yi u
i=1 i = 0.
R2 ,
R2 =
SCR
SCE
=1
SCT
SCT
23
SCE = y
SCR = u
u
= y My
Mi y
y My
y
=1
R2 =
y Mi y
y Mi y
24
2 , es el coeciente de
n 13. El coeciente de determinaci
Definicio
on ajustado, R
determinaci
on corregido por los grados de libertad
2 = 1 y My/(n k) = 1 n 1 (1 R2 )
R
y Mi y/(n 1)
nk
regresi
on
regresi
on
regresi
on
regresi
on
2.8.1.
Regresi
on sobre una constante.
i = 1, . . . , n
Yi = n1
i=1
que podemos tambien obtener particularizando el sistema (2.2) para k = 2. Alternativamente, podemos usar la expresi
on general del estimador
= (X X)1 X y = (n)1
Yi
i=1
es el escalar 1 .
en donde X es ahora una vector columna de unos y
25
2.8.2.
Regresi
on simple.
i = 1, . . . , n
1 = Y 2 X
2 =
(X X)(Yi
i=1
n i
2
i=1 (Xi X)
Y )
n1 + 2
1
Xi + 2
i=1
i=1
n
Xi =
Xi2 =
i=1
i=1
n
Yi
Xi Yi
i=1
2 i=1
= Y 2 X
1 =
n
n
Multiplicando la primera ecuaci
on normal por ni=1 Xi y la segunda por n se obtiene
n
2 n
n
n
Xi + 2
Xi
=
Yi
Xi
n1
i=1
n1
i=1
Xi + n2
i=1
Xi2 =n
i=1
i=1
n
i=1
Xi Yi
i=1
n
n
2
n
n
n
1
1
2
Xi
Xi = n
Xi Yi
Yi
Xi
n2
n
n
i=1
i=1
i=1
i=1
i=1
26
2 =
Y
X 2 nX
Xi Yi nX
2
i
i=1
de donde
i=1
n
n
Y
i Y )
Xi Yi nX
(Xi X)(Y
i=1
i=1
2 = n
=
n
2
2
2
i=1 Xi nX
i=1 (Xi X)
Observaci
on 9. La demostraci
on puede simplicarse usando el modelo en desviaciones
yi = 2 xi + u
i , i = 1, . . . , n
De la ecuaci
on normal
en donde yi = Yi Y y xi = Xi X.
n
xi yi = 2
i=1
obtenemos
x2i
i=1
n
xi y i
SXY
2 = i=1
n
2 = S
x
XX
i=1 i
=
rY X =
n
SY Y SXX
2 n (Xi X)
2
i=1 (Yi Y )
i=1
n 18. El coeciente de determinaci
Proposicio
on R2 en la regresi
on de Y sobre X
es igual al cuadrado del coeciente de correlaci
on muestral entre Y y X
2
R2 = rXY
n. El R2 en regresi
Demostracio
on simple se dene como
n
n
2
(Yi Y )2
SCE
2
2
i=1
i=1 (Xi X) = 2 SXX
= n
=
R =
n
2
2
2
2
SCT
SY Y
i=1 (Yi Y )
i=1 (Yi Y )
2
2
SXY
SXY
SXX
2
=
= rXY
2
SY Y SXX
SXX SY Y
El an
alisis regresion simple se utiliza a menudo para ilustrar el ajuste de minimos
cuadrados. En la gura 1 se representa una muestra de pares observaciones (Yi , Xi ), que
se denomina nube de puntos, y la recta de regresion minimocuadratica. Podemos trazar
o ajustar distintas rectas a traves de la nube de puntos, pero s
olo una de ellas minimiza
los cuadrados de las distancias verticales entre cada punto y la recta. Los puntos por
encima de la recta tienen asociados residuos positivos, indicando que la recta infraestima
la observaci
on; mientras que los puntos por debajo de la recta tienen asociados residuos
negativos, indicando que la recta sobreestima la observaci
on. Los puntos sobre la recta
2
tienen asociados residuos iguales a cero. Cuando R = 0, la recta es horizontal y los
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
27
0.5
0
-0.5
-1
-1.5
-2
-2
-1.5
-1
-0.5
0.5
1.5
(Y , X).
2.8.3.
Regresi
on simple a trav
es del origen.
i = 1, . . . , n
2 = i=1
n
2
i=1 Xi
n. El modelo estimado es
Demostracio
i+u
i
Yi = X
i = 1, . . . , n
i=1
Como
i
i=1 Xi u
Xi Yi =
Xi2
i=1
Xi u
i
i = 1, . . . , n
i=1
= 0, obtenemos que
n
Xi Yi
2 = i=1
n
2
i=1 Xi
28
Alternativamente, aplicando la f
ormula general del estimador
n
n
1
2 1
= (X X) X y = (
Xi )
Xi Yi
i=1
en donde X = (X1 , . . . , Xn
= ().
y
i=1
2.8.4.
Regresi
on lineal sobre dos variables explicativas.
i = 1, . . . , n
2 =
n
n
n
2
2
2
i=1 x2i
i=1 x3i ( i=1 x2i x3i )
n
n
x2
x3i yi ni=1 x2i x3i ni=1 x2i yi
i=1
n
3 = i=12i
n
n
2
2
2
i=1 x2i
i=1 x3i ( i=1 x2i x3i )
n. Aplicando la f
Demostracio
ormula general del estimador para datos centrados
1
n
n
n
2
2
i=1 x2i
i=1 x2i x3i
i=1 x2i yi
= n
n
n
2
3
i=1 x2i x3i
i=1 x3i
i=1 x3i yi
1
n
n
x2i yi
x23i
ni=1 x2i x3i
1
i=1
i=1
n
n
= n
n
n
2
2
2
2
ni=1 x2i x3i
i=1 x2i
i=1 x3i ( i=1 x2i x3i )
i=1 x2i
i=1 x3i yi
en donde
estimada
X2 sobre
13 23 12
3 =
1 23 32
Observaci
on 12. En general, las pendientes estimadas en la regresi
on sobre dos varion simple 12 y 13 .
ables 2 y 3 son distintas de las pendientes estimadas en la regresi
Se cumplir
a que 2 = 12 y 3 = 13 cuando 23 = 32 , es decir, cuando las variables
explicativas son ortogonales.
La gura 2 representa el diagrama de dispersi
on tridimensional. Ahora, ajustamos
un plano a la nube de puntos de manera que el cuadrado de la distancia vertical de
cada punto al plano sea mninima. En el caso kdimensional se dice que ajustamos
un hiperplano de regresi
on a la nube de puntos de manera que el cuadrado de la
distancia vertical de cada punto (Yi , X2i , . . . , Xki ) al hiperplano sea mnima.
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
29
Y
Y
10
9
8
7
6
5
4
3
2
-2
-1
X2
-3
-2
-1
X3
2.9.
Correlaci
on simple, parcial y m
ultiple
El coeciente de correlaci
on simple es una medida de la asociaci
on lineal entre dos
variables, y toma valores entre -1 y 1. Esta medida tiene el inconveniente de estar
contaminada por la inuencia de otras variables. Por ejemplo, si dos variables y y x2 no
estan relacionadas, pero ambas est
an inuidas por una tercera variable x3 , el coeciente
de correlaci
on simple no ser
a igual a cero.
El coeciente de correlaci
on parcial entre y y x2 dado x3 es la correlaci
on simple
entre y y x2 despues de eliminar la inuencia de x3 . Una de las aplicaciones del modelo
de regesi
on es precisamente la de eliminar de una variable las inuencias de terceras
variables. As, en las ecuaciones de regresi
on con datos centrados
3i + u
1,3i
yi =x
x2i =
x3i + u
2,3i
los residuos u
1,3i y u
2,3i se pueden interpretar como los componentes de yi y x2i , respecon simple entre estos residuos u
1,3 y u
2,3
tivamente, que no dependen de x3i . La correlaci
es la correlaci
on parcial entre y y x2 dado x3 .
Finalmente, el coeciente de correlaci
on m
ultiple, R, es la raz cuadrada del coeciente de determinaci
on.
Una vez denidos los coecientes de correlaci
on simple, parcial y m
ultiple, vamos
a establecer una relaci
on entre ellos. Consideramos, en primer lugar, la regresi
on lineal
simple con datos centrados
2i + u
yi = x
1,2i
donde u
1,2 denota los residuos en la regresi
on de y sobre x2 . El R2 de esta regresi
on
2
2
lineal simple es r12 . Y como la suma de cuadrados de los residuos SCR = (1 R )SCT ,
tenemos que
n
n
2
u
21,2i = (1 r12
)
yi2
i=1
i=1
30
2.10. Ejemplo
2. El R2 de la regresi
on simple es el cuadrado de la correlaci
on simple entre u
1,2
yu
3,2 ,
3. La correlaci
on simple entre u
1,2 y u
3,2 es la correlaci
on parcial entre y y x3
2
dado x2 , r13,2 .
Por tanto, la relaci
on SCR = (1 R2 )SCT para esta regresion simple puede escribirse
como
n
n
2
2
2
2
u
1,23i = (1 r13,2 )
u
21,2i = (1 r13,2
)(1 r12
)
yi2
i=1
i=1
i=1
2
2
2
2
u
21,234i = (1 r14,23
)
u
21,23i = (1 r14,23
)(1 r13,2
)(1 r12
)
yi2
i=1
i=1
i=1
i=1
u
21,2...ki
2
(1r1k,2...(k1)
)
2
2
2
2
u
21,2...(k1)i = (1r1k,2...(k1)
) . . . (1r12,23
)(1r13,2
)(1r12
)
i=1
i=1
Ejemplo
i = 1, . . . , 10
yi2
31
Alumno
1
2
3
4
5
6
7
8
9
10
Nota
5
9
7.5
4.5
4
8
0
4
8.5
10
Horas
1
5
3
1
1
4
0
2
5
5
Clase
1
1
1
1
1
0
0
1
0
1
Academia
0
0
0
0
1
1
1
0
1
0
Nota
5
9
7.5
4.5
4
8
0
4
8.5
10
Horas
1
5
3
1
1
4
0
2
5
5
Clase
1
1
1
1
1
0
0
1
0
1
Academia
0
0
0
0
1
1
1
0
1
0
u
i
1.10811
-0.945946
0.581081
0.608108
-2.4869e-014
0.986486
-0.959459
-1.40541
-0.027027
0.0540541
(c) Residuos
en donde denotamos por sus iniciales las variables del cuadro 1.a. Siguiendo la regla
practica para especicar las ecuaciones normales obtenemos
10
10
10
10
1
10
i=1 Ni
i=1 Hi
i=1 Ci
i=1 Ai
10
10
10
10 H N
10 H
2
i=1 i
i i
i=1 Hi Ai 2
i=1 Hi
i=1 Hi Ci
10
10 2 10
= i=1
10
10
i=1 Ci
Ci Ai
C
3
i=1 Ci Ni
i=1 Ci Hi
10
10
10i=1 i
i=1
10
10
2
4
i=1 Ai Ni
i=1 Ai
i=1 Ai Hi
i=1 Ai Ci
i=1 Ai
y calculando todos estos momentos muestrales con los datos del cuadro 1.1, podemos
encontrar las estimaciones minimocuadr
aticas de los par
ametros
1
10 27 7 4
1
60,5
0,851351
27 107 18 10 213,5
1,51351
2
=
7 18 7 1 3 44
3 1,52703
4 10 1 4
20,5
0,108108
4
4
Estas estimaciones nos dicen lo siguiente:
10
10
2
2
h
h
c
h
a
h
n
i
i
i
i
i
i
i
i=1
i=1
i=1
i=1
10
10
10
10
2
i=1 ci hi
i=1 ci
i=1 ci ai 3 =
i=1 ci ni
10
10
10 2
10
4
i=1 ai hi
i=1 ai ci
i=1 ai
i=1 ai ni
32
2.10. Ejemplo
2
50,15
2
34,1 0,9 0,8
1,51351
La estimaci
on del termino constante se obtiene de la ecuaci
on que relaciona las medias
muestrales
2 H
2 C 2 A
1 = N
que conduce a
1 = 6,05 1,51351 2,7 1,52703 0,7 0,108108 0,4 = 0,851359
Vemos que usando los datos centrados obtenemos los mismos resultados, pero invertimos
una matriz de menor orden. A partir de estas estimaciones podemos calcular los residuos
que se presentan en el cuadro 1.c
u
i = Ni 0,851351 1,51351Hi 1,52703Ci 0,108108Ai
La bondad del ajuste medida por el coeciente de determinaci
on
10 2
i
6,7027
i=1 u
R2 = 1 10
= 0,920889
=1
2
84,725
i=1 ni
= 1
= n
n
12
2
2
34,1
84,725
i=1 x2i
i=1 yi
on simple
y los residuos u
1,2i mostrados en el cuadro 2. Despues, estimamos la regresi
x2i + u
3,2i
x3i =
en donde x3i = ci , y obtenemos
n
0,9
i=1 x2i x3i
= 0,026393
=
=
n
2
34,1
x
i=1 2i
on simple
y los residuos u
3,2i mostrados en el cuadro 2. Ahora, podemos estimar la regresi
u
3,2i + u
1,23i
u
1,2i =
obteniendo
n
2,97361
3,2i u
1,2i
i=1 u
= 1,4322
=
=
n
2
2,07625
3,2i
i=1 u
2
r13,2
= 1
21,23i
i=1 u
n
21,2i
i=1 u
= 1
6,71186
= 0,388199
10,970674
2 x2i +
3 x3i + u
4,23i
x4i =
33
Alumno
u
1,2
u
3,2
u
1,23
u
4,23
u
1,234
1
1.45015 0.255132
1.08475 -0.216102
1.10811
2
-0.432551 0.360704 -0.949153 -0.029661
-0.945946
3
1.0088 0.307918
0.567797 -0.122881
0.581081
4
0.950147 0.255132
0.584746 -0.216102
0.608108
5
0.450147 0.255132 0.0847458 0.783898 8.88178e-016
6
0.0381232 -0.665689
0.991525 0.0466102
0.986486
7
-2.07918 -0.771261 -0.974576 -0.139831
-0.959459
8
-1.02053 0.281525
-1.42373 -0.169492
-1.40541
9
-0.932551 -0.639296 -0.0169492 0.0932203
-0.027027
10
0.567449 0.360704 0.0508475 -0.029661
0.0540541
Cuadro 2: Residuos de diferentes regresiones
2
1
=
=
=
70,8 0,9 34,1
0,877119
1,8
3
0,9 2,1
1,8
y los residuos u
4,23i mostrados en el cuadro 2. Ahora, podemos estimar la regresi
on
simple
u
4,23i + u
1,234i
u
1,23i =
obteniendo que
n
3,2i u
1,2i
0,0847458
i=1 u
= 0,108108
=
=
n
2
0,783898
u
i=1 3,2i
2
r14,23
i=1
= 1 n
u
21,234i
21,23i
i=1 u
= 1
6,7027
= 0,001365
6,71186
on
= 0,108108
y los residuos u
1,234i mostrados en el cuadro 2. Vemos que la estimaci
y los residuos u
1,234i de esta regresi
on simple coinciden con la estimaci
on de 4 y los
on m
ultiple.
residuos u
i obtenidos en la regresi
Podemos comprobar que
2
2
2
2
=(1 r12
)(1 r13,2
)(1 r14,23
)
1 R1,234
1
(X X) .
5. La regresi
on con datos tipicados permite apreciar la importancia relativa de
cada variable explicativa.
on de la varianza del regre6. El coeciente de determinaci
on R2 mide la proporci
sando explicada por los regresores.
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
34
2.10. Ejercicios
7. En la regresi
on simple de Y sobre X, el R2 es el cuadrado del coeciente de
correlaci
on muestral entre Y y X.
8. Los coecientes de regresi
on estimados por MCO son coecientes de regresion
parcial, miden la relaci
on entre el regresando y el regresor despues de extraer
la inuencia de los otros regresores.
Palabras clave
Suma de cuadrados total
Suma de cuadrados explicada
Suma de cuadrados residual
Coeciente de determinaci
on
Coecientes de regresi
on parcial
Observaciones
Valores ajustados
Residuos
Ecuaciones normales
Estimaciones minimocuadraticas
Ejercicios
t = 3, . . . , 10
CN
349.268
368.474
388.373
414.158
444.982
484.359
518.484
550.49
586.594
635.993
686.699
RD
388.029
408.24
433.777
465.222
498.647
538.594
574.786
614.7
656.77
699.271
748.357
4. Para la regresi
on lineal simple estimada en el ejercicio anterior, calcule las
sumas de cuadrados total, explicada y residual, as como el coeciente de determinaci
on. Compruebe que el R2 es el cuadrado del coeciente de correlaci
on
simple entre Ct e Yt .
Prof. Dr. Jos
e Luis Gallego G
omez
Departamento de Economa. Universidad de Cantabria
35
5. Sea u
el vector de residuos en la regresi
on de y sobre X. Demuestre que el
estimador de mnimos cuadrados en la regresi
on de u
sobre X es un vector
nulo.
6. Sea M la matriz de proyecci
on generadora de residuos de orden n n y sea
Y = (y1 , y2 , . . . , ym ) una matriz n m. C
omo se intepreta el producto MY?
7. Considere los modelos de regresi
on
y =Xr r + e
y =Xr r + Xs + u
Escriba la expresi
on del estimador de mnimos cuadrados de r en cada modelo.
En que caso especial ambos estimadores ser
an iguales?
e
.
8. Demuestre que, para los modelos del ejercicio anterior, u
u
e
9. Utilizando los datos del cuadro 3 estime por mnimos cuadrados las ecuaciones
de regresi
on
Ct =1 + 1 Yt + u1t
Ct =2 + 2 Ct1 + u2t
Ct1 =3 + 3 Yt + u3t
Yt =4 + 4 Ct1 + u4t
Use estas estimaciones para calcular las estimaciones de 2 y 3 en
Ct = 1 + 2 Yt + 3 Ct1 + ut
10. Dos investigadores han utilizado muestras diferentes sobre las mismas variables
para estimar por mnimos cuadrados la ecuaci
on de regresi
on simple
yi = 1 + 2 Xi + ui
Deciden unir esfuerzos y se plantean dos estrategias:
a) calcular la media aritmetica de sus estimaciones,
b) reestimar los par
ametros utilizando todos los datos.
Que procedimiento producira una menor suma de cuadrados de los residuos?
11. Demuestre que el coeciente de determinaci
on es invariante a transformaciones
lineales de las variables.