Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El modelo de regresión lineal normal clásico, que se va a estudiar, considera que la relación entre
la variable dependiente (Y) y las independientes (X1 ,X2, ... , Xk) se puede formular matricialmente
a partir de la siguiente expresión lineal:
Y X · u
Donde:
Y1 1 X 11 ... X 1K 1 u1
Y2 1 X 21 ... X 2 K 2 u
Y , X , , u 2
... ... ... ... ... ... ...
Y 1 X
n n1 ... X nK K un
Yi 0 1 X i1 ... K X iK ui i=1,2,..., n
X 1 X1 X2 ... Xk
Hipótesis
1. Y X u
2. E(u) 0 , vector de orden nx1
3. E (uu' ) U2 ·I , matriz de orden nxn
4. X matriz de regresores independientes y no estocástica
5. X k
6. u N (0, u2 )
En el modelo estudiado en este capítulo se supone que se verifican las 6 hipótesis anteriores, por
lo que siempre se trabajará bajo el supuesto de un modelo de regresión lineal, normal, clásico.
e i Yi Ŷi i=1,2,...,n
1
Modelo de Regresión Lineal Normal Clásico
Entre los métodos que estiman los parámetros del modelo a partir de los residuos, el más sencillo
es el método de Mínimos Cuadrados Ordinarios (MCO), que hace mínima la suma de los
cuadrados de los residuos.
n
Partiendo de Minimizar ei2
i1
Se obtiene un sistema de ecuaciones (ecuaciones normales) X T X ·̂ X T Y
que permite obtener los estimadores mínimo cuadrático ordinarios (EMCO) de los parámetros j
a partir de la expresión:
b0 ˆ 0
b ˆ
b X ' X X 'Y 1 1
1
. .
b ˆ
k k
n n
n
n
X i1
i 1
... X ik
i 1
Yi
i 1
n n n
n
donde X ' X i1 X
X 2
i1 ... X i1 X ik X `Y X i1Yi
i 1 i 1 i 1
i 1
n..... n
..... ...
n
..... n
....
X X Y
ik X ik X i1 ... X ik2 ik i
i 1 i 1 i 1 i 1
Cada uno de los coeficientes bj representa el efecto de la variable independiente sobre la variable
explicada; es decir el valor estimado de bj indica la variación que experimenta la variable
dependiente cuando la variable independiente Xj varía en una unidad y todas las demás
permanecen constantes.
Estos estimadores MCO son estimadores lineales, insesgados y óptimos (ELIO) en el modelo de
regresión lineal, normal, clásico.
Análisis de la varianza
SCR
Estadístico experimental: Fexp k
SCE
n k 1
Una vez estimado el modelo es conveniente obtener una medida acerca de la bondad del ajuste
realizado. Un estadístico que facilita esta medida es el coeficiente de determinación (R2), que se
define:
SCE
R2 1
SCT
SCR
y en el caso particular de modelo con término independiente: R 2
SCT
3
Modelo de Regresión Lineal Normal Clásico
Este coeficiente permite, además, seleccionar entre modelos clásicos que tengan el mismo
número de regresores, ya que la capacidad explicativa de un modelo es mayor cuanto más
elevado sea el valor que tome este coeficiente.
Por otra parte el valor coeficiente de determinación crece con el número de regresores del
modelo. Por ello, si los modelos que se comparan tienen distinto número de regresores, no
puede establecerse comparación entre sus R2. En este caso debe emplearse el coeficiente de
determinación corregido R 2 , que depura el incremento que experimenta el coeficiente de
determinación cuando el número de regresores es mayor.
SCE n k 1 n 1
R 2 1
SCT n 1
1
n k 1
1 R2
3.3 INFERENCIA ACERCA DE LOS ESTIMADORES
El método de estimación expuesto permite obtener estimaciones puntuales de los parámetros del
modelo. La inferencia permite completar esta estimación puntual, mediante la estimación por
intervalos y los contrastes de hipótesis.
Los primeros posibilitan la obtención de un intervalo dentro del cual, con un determinado nivel de
confianza, oscilará el verdadero valor de un parámetro.
Intervalo de confianza para el parámetro j
2
S (n k 1) S 2 (n k 1) SCR SCR
IC :
2
;
2 2 ; 2
2 1
1
u
2 2 2 2
4
Modelo de Regresión Lineal Normal Clásico
Formulación de la hipótesis: H0 : j *j
H1 : j *j
b j *j
Estadístico experimental t exp
Sb j
Estadístico teórico t tco t nk 1 ( / 2)
Formulación de la hipótesis: H0 : j 0
H1 : j 0
bj
Estadístico experimental T0 j
Sbj
Formulación de la hipótesis: H0 : k t m
H 0 : k11 0 k121 ... k1k K m1
k21 0 k221 ... k2 k K m2
o alternativamente
.............
kq1 0 kq 2 1 ... kqk K mq
SCR R2
Fexp k k
Estadístico experimental
SCE
n k 1
1 R
2
n k 1
SCE R SCE c
Estadístico experimental Fexp k m
SCE c
n k 1
Una vez estimado y validado el modelo, una de sus aplicaciones más importantes consiste en
poder realizar predicciones acerca del valor que tomaría la variable dependiente en el futuro o
para una unidad extramuestral.
Esta predicción se puede realizar tanto para un valor individual como para un valor medio, o
esperado, de la variable dependiente, siendo posible efectuar una predicción puntual o por
intervalos. Su cálculo se realiza mediante las expresiones que figuran a continuación.
Yˆ t
x ( n k 1,1 / 2 )
S at X t X
1
a ; Yˆx t ( nk 1,1 / 2) S
at X t X
1
a
6
Modelo de Regresión Lineal Normal Clásico
Yˆ t
x ( n k 1,1 / 2 )
1
1
S e 1 a t X t X a ; Yˆx t ( nk 1,1 / 2) S e 1 a t X t X a
Análisis de correlación
H o : 0
7
Modelo de Regresión Lineal Normal Clásico
V ln(1 0 ) /(1 0 )
1
Estadístico de contraste: Z 2
1/ n 3
Ejemplo
La gerente de la cadena de supermercados ABC quiere saber si existe una relación entre el
tiempo que tarda una cliente en pasar por caja y el monto de la compra que hace. Elige dos
variables de predicción: el monto de la compra y el número de artículos comprados. El gerente
recoge los datos de 12 clientes:
m t o e
dlpa eo
acr p
u
a
X
X 1 2(
1
5
8 1
1
4
6 2
u
4
4
2 3
4
8
3 4 E
u8
1
2 5 t s
q
q
R m6aM
4
6
8
1
4
5
4 1
9
1
1 7
a
P
9
6
2 8
1
2
6 9
9
4
2 1 0
8
2
3 1 1
3
9
9 1 2
2
2
2 T
N o
b
O
e
m a
d
uF
ai
M g
f
a
1
R a
9
2
9
2
0
1
9
3 R
9
1 T
a
P
b
D
a
i c
n d
e
f
d f i
t
i s
c
SB
eME
i
t g
2
83
91
( C
2
7
00
4M
7
1
26
2N
a
D