Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Regresion Lineal Multiple.
Regresion Lineal Multiple.
El modelo de regresión lineal normal clásico, que se va a estudiar, considera que la relación entre
la variable dependiente (Y) y las independientes (X 1 ,X2, ... , Xk) se puede formular matricialmente
a partir de la siguiente expresión lineal:
Y = X · + u
Donde:
Y1 1 X 11 ... X 1K 1 u1
Y2 1 X 21 ... X 2 K 2 u
Y = , X = , = , u = 2
... ... ... ... ... ... ...
Y 1 X
n n1 ... X nK K un
Yi = 0 + 1 X i1 + ... + K X iK + u i i=1,2,..., n
X = 1 X1 X 2 ... Xk
Hipótesis
1. Y = X + u
2. E(u) = 0 , vector de orden nx1
3. E (uu' ) = U2 ·I , matriz de orden nxn
4. X matriz de regresores independientes y no estocástica
5. (X ) = k
6. u N (0, u2 )
En el modelo estudiado en este capítulo se supone que se verifican las 6 hipótesis anteriores, por
lo que siempre se trabajará bajo el supuesto de un modelo de regresión lineal, normal, clásico.
e i = Yi − Ŷi i=1,2,...,n
1
Modelo de Regresión Lineal Normal Clásico
Entre los métodos que estiman los parámetros del modelo a partir de los residuos, el más sencillo
es el método de Mínimos Cuadrados Ordinarios (MCO), que hace mínima la suma de los
cuadrados de los residuos.
n
Partiendo de Minimizar e i2
i=1
Se obtiene un sistema de ecuaciones (ecuaciones normales) X T X ·̂ = X T Y
que permite obtener los estimadores mínimo cuadrático ordinarios (EMCO) de los parámetros j
a partir de la expresión:
b0 ˆ0
b ˆ
b = ( X ' X ) X 'Y = 1 = 1
−1
. .
b ˆ
k k
n n
n
n
X i1
i =1
... X ik
i =1
Yi
i =1
n n n
n
donde X ' X = i1 X
X 2
i1 ... X i1 X ik X `Y = X i1Yi
i =1 i =1 i =1
i =1
n..... n
..... ...
n
..... n
....
X X Y
ik X ik X i1 ... X ik2 ik i
i =1 i =1 i =1 i =1
Cada uno de los coeficientes bj representa el efecto de la variable independiente sobre la variable
explicada; es decir el valor estimado de b j indica la variación que experimenta la variable
dependiente cuando la variable independiente Xj varía en una unidad y todas las demás
permanecen constantes.
Estos estimadores MCO son estimadores lineales, insesgados y óptimos (ELIO) en el modelo de
regresión lineal, normal, clásico.
Análisis de la varianza
SCR
Estadístico experimental: Fexp = k
SCE
n − k −1
Una vez estimado el modelo es conveniente obtener una medida acerca de la bondad del ajuste
realizado. Un estadístico que facilita esta medida es el coeficiente de determinación (R2), que se
define:
SCE
R2 = 1−
SCT
SCR
y en el caso particular de modelo con término independiente: R 2 =
SCT
3
Modelo de Regresión Lineal Normal Clásico
Este coeficiente permite, además, seleccionar entre modelos clásicos que tengan el mismo
número de regresores, ya que la capacidad explicativa de un modelo es mayor cuanto más
elevado sea el valor que tome este coeficiente.
Por otra parte el valor coeficiente de determinación crece con el número de regresores del
modelo. Por ello, si los modelos que se comparan tienen distinto número de regresores, no
puede establecerse comparación entre sus R2. En este caso debe emplearse el coeficiente de
determinación corregido R 2 , que depura el incremento que experimenta el coeficiente de
determinación cuando el número de regresores es mayor.
SCE n − k − 1 n −1
R 2 = 1−
SCT n − 1
= 1−
n − k −1
1 − R2 ( )
3.3 INFERENCIA ACERCA DE LOS ESTIMADORES
El método de estimación expuesto permite obtener estimaciones puntuales de los parámetros del
modelo. La inferencia permite completar esta estimación puntual, mediante la estimación por
intervalos y los contrastes de hipótesis.
Los primeros posibilitan la obtención de un intervalo dentro del cual, con un determinado nivel de
confianza, oscilará el verdadero valor de un parámetro.
• Intervalo de confianza para el parámetro j
... ...
b b b b ... b2K
K0 K 1
2
S (n − k − 1) S 2 (n − k − 1) SCR SCR
IC :
2
;
2 2 ; 2
2 1−
1−
u
2 2 2 2
4
Modelo de Regresión Lineal Normal Clásico
Formulación de la hipótesis: H0 : j = *j
H1 : j *j
b j − *j
Estadístico experimental t exp =
Sb j
Estadístico teórico t tco = t n−k −1 ( / 2)
Formulación de la hipótesis: H0 : j = 0
H1 : j 0
bj
Estadístico experimental T0 j =
Sbj
Formulación de la hipótesis: H0 : k t = m
H 0 : k11 0 + k121 + ... + k1k K = m1
k21 0 + k221 + ... + k2 k K = m2
o alternativamente
.............
kq1 0 + kq 2 1 + ... + kqk K = mq
SCR R2
Fexp = k = k
Estadístico experimental
SCE
n − k −1
(1 − R )
2
n − k −1
SCER − SCEc
Estadístico experimental Fexp = k −m
SCEc
n − k −1
Una vez estimado y validado el modelo, una de sus aplicaciones más importantes consiste en
poder realizar predicciones acerca del valor que tomaría la variable dependiente en el futuro o
para una unidad extramuestral.
Esta predicción se puede realizar tanto para un valor individual como para un valor medio, o
esperado, de la variable dependiente, siendo posible efectuar una predicción puntual o por
intervalos. Su cálculo se realiza mediante las expresiones que figuran a continuación.
Yˆ − t
x ( n − k −1,1− / 2 ) (
S at X t X )
−1
a ; Yˆx + t ( n−k −1,1− / 2) S (
at X t X )
−1
a
6
Modelo de Regresión Lineal Normal Clásico
x ( n − k −1,1− / 2 )
Análisis de correlación
V − ln (1 + 0 ) /(1 − 0 )
1
H o : = 0 Estadístico de contraste: Z = 2
1/ n − 3