Documentos de Académico
Documentos de Profesional
Documentos de Cultura
lineal simple
Modelo clásico de regresión lineal
Y b1 b 2 X
b1
X1 X2 X3 X4 X
Suponga que la variable Y es una función lineal de otra variable X, con parámetros desconocidos b1 y b2
que deseamos estimar.
1
Modelo de regresión lineal simple
Y b1 b 2 X
b1
X1 X2 X3 X4 X
2
Modelo de regresión lineal simple
Y b1 b 2 X
Q4
Q3
Q2
b1 Q1
X1 X2 X3 X4 X
Si la relación fuera exactamente 1. Las observaciones se encontrarían en una línea recta y podríamos
fácilmente obtener estimaciones exactas para b1 y b2.
3
Modelo de regresión lineal simple
Y P4
Y b1 b 2 X
P1 Q4
Q3
Q2
b1 Q1 P3
P2
X1 X2 X3 X4 X
En la practica, muchas relaciones económicas no son exactas y los valores reales de Y son diferentes a los
valores correspondientes de la recta.
4
Modelo de regresión lineal simple
Y P4
Y b1 b 2 X
P1 Q4
Q3
Q2
b1 Q1 P3
P2
X1 X2 X3 X4 X
Para tener en cuenta esas divergencias, re escribimos el modelo como Y = b1 + b2X + u, donde u es un
termino de perturbación ( o incertidumbre).
5
Modelo de regresión lineal simple
Y P4
Y b1 b 2 X
Q4
u1 P1 Q3
Q2
b1 Q1 P3
P2
b1 b 2 X 1
X1 X2 X3 X4 X
Por lo tanto cada valor de Y tiene un componente no aleatorio. (b1 + b2X) y un componente aleatorio (u)
La primera observación se ha descompuesto en sus dos componentes.
6
Modelo de regresión lineal simple
Y P4
P1
P3
P2
X1 X2 X3 X4 X
7
Modelo de regresión lineal simple
Y P4
Yˆ bˆ1 bˆ2 X
P1
P3
P2
b̂1
X1 X2 X3 X4 X
Obviamente, podemos usar los puntos P para dibujar una línea que es una aproximación a la línea Y = b1
+ b2X. Si dibujamos esa línea Ŷ bˆ1 bˆ2 X , b̂1 es una estimación de b1 y b̂ 2es una estimación de b2.
8
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
Ŷ bˆ1 bˆ2 X
R3 R4
R2
P1
R1 P3
P2
b̂1
X1 X2 X3 X4 X
Esta línea es llamada “modelo estimado” y los valores de Y sombrero son llamados los valores estimados
de Y. Eso se da por alrededor del punto R.
9
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ(valor estimado) P4
Y Yˆ e (residuo)
e4
Ŷ bˆ1 bˆ2 X
R3 R4
R2
e1 P1 e3
e2
R1 P3
P2
b̂1
X1 X2 X3 X4 X
Las discrepancias entre el valor actual y el valor estimados se conoce como los residuales o residuos.
10
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
Ŷ bˆ1 bˆ2 X
R3 R4 Y b1 b 2 X
R2
P1
b1 R1 P3
P2
b̂1
X1 X2 X3 X4 X
Observe que los valores de los residuos no son los mismos que los valores del termino de perturbación. El
diagrama muestra la verdadera relación desconocida, así como la línea ajustada.
11
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
Ŷ bˆ1 bˆ2 X
Y b1 b 2 X
P1 Q4
Q3
Q2
b1 Q1 P3
P2
b̂1
X1 X2 X3 X4 X
12
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
Ŷ bˆ1 bˆ2 X
R3 R4 Y b1 b 2 X
R2
P1
b1 R1 P3
P2
b̂1
X1 X2 X3 X4 X
Los residuos son las discrepancias entre el valor actual y el valor estimado
13
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
Ŷ bˆ1 bˆ2 X
R3 R4 Y b1 b 2 X
R2
P1
b1 R1 P3
P2
b̂1
X1 X2 X3 X4 X
Si el ajuste es bueno, los residuos y los valores del término de perturbación será similares, pero los
mismos deben mantenerse separados conceptualmente.
14
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
u4 Ŷ bˆ1 bˆ2 X
Y b1 b 2 X
Q4
b1 b1 b 2 X 4
b̂1
X1 X2 X3 X4 X
Ambas líneas se usaran en nuestro análisis. Cada una permite una descomposición del valor de Y. La
descomposición puede ser ilustrada en la cuarta observación
15
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
u4 Ŷ bˆ1 bˆ2 X
Y b1 b 2 X
Q4
b1 b1 b 2 X 4
b̂1
X1 X2 X3 X4 X
Usando la relación teórica, Y puede ser descompuesta en sus componentes no estocásticos b1 + b2X y en
su componente estocástico u.
16
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
u4 Ŷ bˆ1 bˆ2 X
Y b1 b 2 X
Q4
b1 b1 b 2 X 4
b̂1
X1 X2 X3 X4 X
Esta es una descomposición teórica, porque no conocemos los valores de b1 o b2, o los valores del
termino de error. Usaremos esto en nuestro análisis de las propiedades de los coeficientes de regresión.
17
Modelo de regresión lineal simple
Y (valor actual)
Y Ŷ (valor estimado) P4
e4 Ŷ bˆ1 bˆ2 X
R4 Y b1 b 2 X
X1 X2 X3 X4 X
La otra descomposición hace referencia a la línea de regresión ajustada. En cada observación los valores
actuales de Y es igual al valor ajustado mas el valor residual. Esta es una descomposición operativa que
usaremos para fines prácticos.
18
Criterio Mínimos Cuadrados
Ordinarios
Métodos de estimación
Modelo de regresión lineal simple
Para empezar, vamos a dibujar la línea de regresión ajustada con el fin de minimizar la suma residual de
cuadrados SRC. Esto se denomina como el criterio Mínimos cuadrados.
19
Modelo de regresión lineal simple
¿Porqué no minimizamos?
n
e
i 1
i e1 ... en
¿Porque la suma de los residuos al cuadrado? ¿Porque no solo minimizamos la suma de los residuos?
20
Modelo de regresión lineal simple
Y P4
Y P1
P3
P2
X1 X2 X3 X4 X
Puedes conseguir al parecer un ajuste perfecto dibujando una línea horizontal que pasa por el valor
promedio de Y. La suma de los residuos sería cero.
21
Modelo de regresión lineal simple
Y P4
Y P1
P3
P2
X1 X2 X3 X4 X
Podemos prevenir residuos negativos cancelando los residuos positivos. Y una forma de hacer esto es
usando los residuos al cuadrado.
22
Modelo de regresión lineal simple
Y P4
Y P1
P3
P2
X1 X2 X3 X4 X
Por supuesto hay otras formas de lidiar con el problema. El criterio mínimos cuadrados tiene como
atractivo que los estimadores derivados con el, tienen propiedades deseables, siempre y cuando se
cumplan ciertas condiciones.
23
Modelo de regresión lineal simple
Y P4
Y P1
P3
P2
X1 X2 X3 X4 X
En la siguiente dispositiva, veremos como se utiliza el criterio mínimos cuadrados para calcular los
coeficientes de la recta ajustada.
24
El modelo de regresión
lineal
Derivación MCO
Y
6
Y3
5 Y2
4
3 Y1
2
0
0 1 2 3 X
Esta secuencia muestra como son derivados los coeficientes de regresión de un modelo de
regresión simple, usando el criterio Mínimos Cuadrados Ordinarios (M.C.O. )
1
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Modelo real Y 1 2 X u
Y
6
Y3
5 Y2
4
3 Y1
2
0
0 1 2 3 X
Empezamos con un ejemplo numérico con tres observaciones: (1,3), (2,5), and (3,6).
2
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Modelo real Y 1 2 X u
Línea estimada Yˆ ˆ ˆ X
1 2
Y
Yˆ3 ˆ1 3ˆ2
6
Y3
5 Y2
4 Yˆ1 ˆ1 ˆ2 Yˆ2 ˆ1 2 ˆ2
3 Y1
2 ̂ 2
̂1
1
0
0 1 2 3 X
Escribimos la regresión ajustada como Yˆ ˆ1 ˆ2 X , determinaremos los valores de ̂1y ̂ 2
que minimizan SRC la suma residual de cuadrados.
3
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Modelo real Y 1 2 X u
Línea estimada Yˆ ˆ ˆ X
1 2
Y
Yˆ3 ˆ1 3ˆ2
6
Y3
5 Y2
4 Yˆ1 ˆ1 ˆ2 Yˆ2 ˆ1 2 ˆ2
3
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
5
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
5
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
5
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC
0 6 ˆ1 12 ˆ2 28 0
ˆ1
SRC
0 12 ˆ1 28ˆ2 62 0
ˆ2
Para un mínimo, la derivada parcial de SRC con respecto a ̂1 y ̂ 2 es igualada a cero,
Veamos la primera condición de orden.
8
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC
0 6 ˆ1 12 ˆ2 28 0
ˆ1
SRC
0 12 ˆ1 28ˆ2 62 0
ˆ2
La condición de primer orden nos muestra dos ecuaciones con dos incógnitas.
8
ANÁLISIS DE REGRESIÓN SIMPLE
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC
0 6 ˆ1 12 ˆ2 28 0
ˆ1
SRC
0 12 ˆ1 28ˆ2 62 0
ˆ2
8
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Modelo real Y 1 2 X u
Línea estimada Yˆ ˆ ˆ X
1 2
Y
Yˆ3 ˆ1 3ˆ2
6
Y3
5 Y2
4 Yˆ1 ˆ1 ˆ2 Yˆ2 ˆ1 2 ˆ2
3 Y1
2 ̂ 2
̂1
1
0
0 1 2 3 X
3
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Modelo real Y 1 2 X u
Línea estimada Yˆ 1.67 1.50 X
Y
Yˆ3 6.17
6
Y3
5 Y2
4 Yˆ2 4.67
Yˆ1 3.17
3 Y1
2 1.50
1.67
1
0
0 1 2 3 X
12
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Yn
Y1
X1 Xn X
13
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Línea estimada Yˆ ˆ1 ˆ2 X
Yn
Y1
X1 Xn X
Teniendo en cuenta nuestra elección para ̂1 y ̂ 2 , obtenemos una línea estimada.
14
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Línea estimada Yˆ ˆ1 ˆ2 X
Yn
Y1
e1 e1 Y1 Yˆ1 Y1 ˆ1 ˆ2 X 1
Yˆ1 ˆ1 ˆ2 X 1 .....
̂1 ̂ 2 en Yn Yˆn Yn ˆ1 ˆ2 X n
X1 Xn X
14
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Línea estimada Yˆ ˆ1 ˆ2 X
De manera similar definimos los residuos para las observaciones restantes. La última es
resaltada.
14
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC e12 ... en2 (Y1 ˆ1 ˆ2 X 1 ) 2 ... (Yn ˆ1 ˆ2 X n ) 2
Y12 ˆ12 ˆ22 X 12 2 ˆ1Y1 2 ˆ2 X 1Y1 2 ˆ1ˆ2 X 1
...
Yn2 ˆ12 ˆ22 X n2 2 ˆ1Yn 2 ˆ2 X nYn 2 ˆ1ˆ2 X n
1 2
Y 2 nˆ 2 ˆ 2 X 2 2 ˆ Y 2 ˆ
i i 1 i 2
X Y 2 ˆ ˆ
i i X 1 2 i
SRC, la suma residual de los cuadrados, es definida para el caso general. Los datos en el
ejemplo numérico se muestran para su comparación.
17
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC e12 ... en2 (Y1 ˆ1 ˆ2 X 1 ) 2 ... (Yn ˆ1 ˆ2 X n ) 2
Y12 ˆ12 ˆ22 X 12 2 ˆ1Y1 2 ˆ2 X 1Y1 2 ˆ1ˆ2 X 1
...
Yn2 ˆ12 ˆ22 X n2 2 ˆ1Yn 2 ˆ2 X nYn 2 ˆ1ˆ2 X n
1 2 i 1
Y 2 nˆ 2 ˆ 2 X 2 2 ˆ Y 2 ˆ
i i 2
X Y 2 ˆ ˆ
i i 1X 2 i
17
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC e12 e22 e32 (3 ˆ1 ˆ2 ) 2 (5 ˆ1 2 ˆ2 ) 2 (6 ˆ1 3ˆ2 ) 2
9 ˆ 2 ˆ 2 6 ˆ 6 ˆ 2 ˆ ˆ
1 2 1 2 1 2
SRC e12 ... en2 (Y1 ˆ1 ˆ2 X 1 ) 2 ... (Yn ˆ1 ˆ2 X n ) 2
Y12 ˆ12 ˆ22 X 12 2 ˆ1Y1 2 ˆ2 X 1Y1 2 ˆ1ˆ2 X 1
...
Yn2 ˆ12 ˆ22 X n2 2 ˆ1Yn 2 ˆ2 X nYn 2 ˆ1ˆ2 X n
1 2 i 1
Y 2 nˆ 2 ˆ 2 X 2 2 ˆ Y 2 ˆ
i i 2
X Y 2 ˆ ˆ
i i 1X 2 i
17
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Observe que en esta ecuación las observaciones en X y Y son justo los datos que
determinan los coeficientes en la expresión SRC.
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
̂ ̂
Las variables electas en las expresiones son 1 y 2. Esto puede parecer un tanto extraño
porque en sus cursos de cálculo elemental estas betas son usualmente constantes y X y Y
son variables.
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Sin embargo, ante cualquier duda, comparemos que se hace en caso general, con lo que se
hizo en el ejemplo numérico
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
X
X i
X i nX
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
SRC
0 2 ˆ2 X i2 2 X iYi 2 ˆ1 X i 0
ˆ2
ˆ2 X i2 X iYi ˆ1 X i 0
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nX
i
2 2
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nXi
2 2
ˆ2
X X Y Y
i i
X X
2
i
En la práctica, solemos usar una expresión alternativa. Una buena práctica es demostrar
que ambas son equivalentes.
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nXi
2 2
ˆ2
X X Y Y
i i
X X
2
i
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nX i
2 2
ˆ2
X X Y Y
i i
X X
2
i
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X
X i
X nXi
2 2
n
ˆ2
X X Y Y
X
i i
nX
X X
2
i
i
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nXi
2 2
ˆ2
X X Y Y
i i
X X
2
i
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
ˆ2 X Y nXY
i i
X nX
i
2 2
ˆ2
X X Y Y
i i
X X
2
i
iX X 2
i
X 2
nX 2
20
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Línea estimada Yˆ ˆ1 ˆ2 X
Yn
Y1
X1 Xn X
14
DERIVACIÓN DE LOS COEFICIENTES DEL MRL
Y Modelo real: Y 1 2 X u
Línea estimada Yˆ ˆ1 ˆ2 X
Yn
Y1
ˆ1 Y ˆ2 X
̂1 ̂ 2 X X
2
i
X1 Xn X
Elegimos los parámetros de la línea ajustada con el fin de minimizar la suma de los
cuadrados de los residuos. Como resultado, derivamos las expresiones para b1 y b2.
14
DERIVANDO COEFICIENTES DE REGRESIÓN LINEAL
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
ei Yi Yˆi Yi ˆ2 X i
Vamos a obtener una expresión para b2 usando los principios de la regresión mínimos
cuadrados. El residuo en la observación es ei = Yi – b2Xi.
41
DERIVANDO COEFICIENTES DE REGRESIÓN LINEAL
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
ei Yi Yˆi Yi ˆ2 X i
n n n n
SRC Yi ˆ2 X i Yi 2 ˆ2 X iYi ˆ i
2
2 2 2
2 X
i 1 i 1 i 1 i 1
41
DERIVANDO COEFICIENTES DE REGRESIÓN LINEAL
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
ei Yi Yˆi Yi ˆ2 X i
n n n n
SRC Yi ˆ2 X i Yi 2 ˆ2 X iYi ˆ i
2
2 2 2
2 X
i 1 i 1 i 1 i 1
RSS n n
2 ˆ2 X i 2 X iYi 0
2
ˆ2 i 1 i 1
Diferenciando con respecto a b2, obtenemos la condición de primer orden para un mínimo
41
DERIVANDO COEFICIENTES DE REGRESIÓN LINEAL
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
ei Yi Yˆi Yi ˆ2 X i
n n n n
SRC Yi ˆ2 X i Yi 2 ˆ2 X iYi ˆ i
2
2 2 2
2 X
i 1 i 1 i 1 i 1
RSS n n
2 ˆ2 X i 2 X iYi 0
2
ˆ2 i 1 i 1
n
XY i i
ˆ2 i 1
n
i
X 2
i 1
Por lo tanto, obtenemos el estimador MCO de b2 para este modelo
41
DERIVANDO COEFICIENTES DE REGRESIÓN LINEAL
Modelo real: Y 2 X u
Yˆ ˆ2 X
Linea
estimada:
ei Yi Yˆi Yi ˆ2 X i
n n n n
SRC Yi ˆ2 X i Yi 2 ˆ2 X iYi ˆ i
2
2 2 2
2 X
i 1 i 1 i 1 i 1
RSS n n
2 ˆ2 X i 2 X iYi 0
2
ˆ2 i 1 i 1
n
XY i i
ˆ2 i 1 2 SRC n
n
ˆ
2 X i 0
2
i 2
2 2
X i 1
i 1
La segunda derivada es positiva, confirmando que hemos encontrado un mínimo.
41
Propiedades de la recta de
regresión
Propiedades de la recta ajustada, recta estimada, recta predicha.
1. Pasa a través de las medias muestrales de Y y X.
Yi ˆ 1 ˆ 2 X i ei Y
Yˆi ˆ 1 ˆ 2 X i
e
i 0
FRM
Y ˆ
i 1 ˆ 2 X i ei
Yi nˆ 1 ˆ 2 X i 0
Y
n n n n
Y ˆ 1 ˆ 2 X
X
X
2. El valor promedio del Y estimado= Ŷ , es igual al
valor medio del Y real
Yˆi Y ˆ 2 X ˆ 2 X i Aplicando la definición de b1
Yˆ nY ˆ X
i 2 i nˆ 2 X Multiplicando, Aplicando
sumas y sus propiedades
Yˆ i
nY ˆ 2 X i nˆ 2 X
Dividiendo por n
n n n n
Yˆ Y
3. El valor de la media de los residuos es cero
e 0
ei Yi Yˆi Yi b1 b2 X i ˆ
Yˆi 1
ˆ X
2 i
e Y nˆ ˆ X
i i 1 2 i
Aplicamos sumatoria
e 0 1 1 ˆ ˆ 1
Dividiendo por n ambos
e i Y i 1X 2 i términos de la ecuación,
1 n n n
e ei
n ˆ ˆ
e Y 1 2 X
Si sustituimos b , la
expresión se es cero.
1
e i 0
Y (Y ˆ 2 X ) ˆ 2 X 0
Los residuos en cualquier observación vienen dados por la diferencia entre los valores
reales y los ajustados de Y para cada observación.
Usando el desvio de y
Yi ˆ 1 ˆ 2 X i ei Planteamos la FRM
Y ˆ ˆ X
1 2
Y la ecuación encontrada en la propiedad 1
Yi Y ˆ 1 ˆ 1 ˆ 2 X i ˆ 2 X ei Restamos ambas
Y Y ˆ X X e
i 2 i i
Despejamos y factorizamos
yi ˆ 2 xi ei Y se define el desvió de Y
yˆi ˆ 2 xi
Usando la definición de la recta estimada
en desvíos
yˆ e
i i ˆ 2 xi ei Multiplicando por los residuos y aplicando
sumas
yˆ e ˆ x y ˆ x
i i 2 i i 2 i
Usando la definición de los residuos
yˆ e ˆ x y ˆ x 2 2 Usando la definición de b2
i i 2 i i 2 i
x y
ˆ 2 i i
x
yˆ e ˆ 22 xi2 ˆ 22 xi2
2
i
i i Reemplazado b2
ˆ x x y
2
2
i i i
yˆ e i i 0 Multiplicando por b2
ˆ 2 2 xi2 ˆ 2 xi yi
5. Los residuos no están correlacionados con Xi
Demostrar:…
e x
i i 0 ó e X
i i 0
Estadística aplicada a la Economía
Y 1 2 X u
1 y 2
Supuestos Gaussianos
Estos supuestos a primera vista pueden provocar mareos, pero en realidad son bastante
intuitivos.
1. EL modelo de regresión el lineal en los parámetros
Yi 1 2 X i ui
Yi X i ui
1 1
1 2
Yi 1 2 X i ui
2 5
e x2
Y i
1/2
1 2 X i ui
1 2 ui
Yi A X i vi
Los parámetros beta, en los cinco casos tienen coeficiente 1, por lo tanto, se trata de
modelos de regresión lineales en los parámetros, es decir, se cumple el supuesto 1.
¿Porqué el quinto caso es considerado lineal?
1. EL modelo de regresión el lineal en los parámetros
Yi 1 2 X i ui
Yi X i ui
1 1
1 2
Yi 1 2 X i ui
2 5
e x2
Y i
1/2
1 2 X i ui
1 2 ui
Yi A X i vi
El incumplimiento a este supuesto genera modelos no lineales, que no pueden estimarse
mediante MCO, ante ellos surgen métodos de estimación no lineales.
2. Los valores de X son independientes de la perturbación estocástica
Yi 1 2 X i ui
Determinística
No aleatoria Aleatoria
var i / X i 2
• Es decir, para hacer una regresión se debe contar con una buena
muestra
• Un tamaño de muestra grande dependerá del tamaño de la
población y de la variabilidad. Pero mucho depende del
investigador.
• Tener pocos datos provoca regresiones con muchos sesgos.
Y entonces, ˆ2 x y i i
x 2
i
Una variable varía. Una constante es fija, no varía. Entonces la variable X debe de ser
variable antes de hacer una regresión.
Estadística aplicada a la Economía
Dados los supuestos del modelo clásico der egresión lineal, los valores estimados de
mínimos cuadrados poseen algunas propiedades ideales u óptimas. Estas propiedades
están contenidas en el teorema de Gauss-Markov.
Propiedades de los estimadores MCO
• El estimador ̂ es Lineal
• El estimador ̂ es Insesgado.
• El estimador ̂ es tiene varianza mínima entre todos los
estimadores lineales insesgados, por lo tanto es un estimador eficiente.
• El estimador ̂ es Lineal
• El estimador ̂ es Insesgado.
• El estimador ̂ es tiene varianza mínima entre todos los
estimadores lineales insesgados, por lo tanto es un estimador eficiente.
Esto indica que todos los estimadores son buenos, ya que todos son lineales y todos
también son insesgados, pero solo uno de ese universo de estimadores es eficiente, y es
eficiente porque tiene la menor varianza.
La presentación termina aquí, el resto es el anexo de l presente tema.
𝛽መ − 𝛿 β
𝛽መ + 𝛿
Demostración de la Linealidad
Es constante
wi 0
yi xi xi
2 wi xi 1
ˆ
A partir de wi
xi 2
xi 1
ˆ yi wi yi Yi Y wi
2
x 2
Yi Y w
i
ˆ
i
ˆ Yiw Y w
i i pero w i 0
ˆ
y x i i
x 2
i
* ˆ y w
i i Yi Xi Ui
r
v
ˆ Xi Uiw i
ˆ w Xiw Uiw
0 1
i i i
E ˆ E Uiw i
E ˆ ˆ es un estimador insesgado de
w E U
2 u
2 wi w j E U iU j Por Hipótesis
2
2 2 0
ˆ i i
i j
u2
2ˆ Varianza del Estimador ˆ
xi2
Ahora que se ha determinado la varianza MCO. Solo resta saber si la misma es mas grande
o mas pequeña que la varianza de cualquier otro estimador.
Suponemos Otro Estimador Beta (con dos sombreros ^^)
ˆ
ˆ y x i i
Pero ci wi di
x 2
i Conocido
w d 0 i i
ˆ
c 0
c U
i
ˆ
c X 1
i i
i i
d X 0 i i
ˆ
ˆ c U i i
c U
2
ˆ
ˆ 2
E E i i
2
ˆ E c U 2 c c U U
2
i i
2
i j i j
ˆ
c E U
2 c c E U U 0
2
2
ˆ
2
i i
2 u
i j i J
ˆ
i j
2
ˆ
ˆ
u2 w i di 2
1
2
u2 u2 d i2
ˆ
ˆ xi2
k
2
ˆ
ˆ ˆˆ
2ˆˆ 2ˆ K es mas eficiente que
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
Ahora discutiremos la bondad del ajuste. Una medida de la variación de Y es la suma de las
desviaciones cuadradas alrededor de la media de la muestra, a menudo descrito como la suma
total de cuadrados, STC.
22
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
23
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
24
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
25
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
26
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
27
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
Yˆ e
i i 0 e i 0
Los dos últimos términos son ambos cero, dado las propiedades de la recta de regresión
vistas anteriormente.
28
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
Así, hemos demostrado que STC, la suma total de los cuadrados de Y se puede
descomponer en SEC, la suma “explicada” de cuadrados, y SRC, la suma residual
('inexplicable') de las cuadrados
29
Bondad del ajuste
ei Yi Yˆi Yi Yˆi ei
Y i Y
2
ˆ 2
ˆ
Yi ei Y Yi Y ei
2
Yi Y ei2 2 Yˆi Y ei
ˆ 2
Yi Y ei2 2 Yˆi ei 2Y ei
ˆ 2
Las palabras explicada e inexplicable se ponen entre comillas porque la explicación puede
ser en realidad falsa. Y realmente podría depender de alguna otra variable Z, y X podría
actuar como un proxy para Z. Sería más seguro utilizar la expresión aparentemente
explicada en lugar de la explicada 29
Bondad del ajuste
Y Y Yi Y ei2
ˆ STC SEC SRC
2 2
i
R
2 SEC
i
(Yˆ Y ) 2
STC (Yi Y )2
Y Y Yi Y ei2
ˆ STC SEC SRC
2 2
i
R
2 SEC
i
(Yˆ Y ) 2
STC (Yi Y )2
Obviamente nos gustaría encontrar la línea de regresión para hacer que la bondad de ajuste
sea lo más alta posible. ¿Esto condiciona el uso de los mínimos cuadrados principales para
determinar b1 y b2?
32
Bondad del ajuste
Y Y Yi Y ei2
ˆ STC SEC SRC
2 2
i
R
2 SEC
i
(Yˆ Y ) 2
STC (Yi Y )2
R2
STC SRC
1
ei
2
STC (Yi Y )2
Afortunadamente, no hay problema. Para ver esto, vuelva a escribir la expresión para R2 en
términos de SRC como se muestra.
33
Bondad del ajuste
Y Y Yi Y ei2
ˆ STC SEC SRC
2 2
i
R
2 SEC
i
(Yˆ Y ) 2
STC (Yi Y )2
R2
STC SRC
1
ei
2
STC (Yi Y )2
Los coeficientes de regresión MCO se eligen de tal manera que se minimice la suma de los
cuadrados de los residuos. Por lo tanto se deduce automáticamente que maximizan R2.
34
Bondad del ajuste
R
2 SEC
i
(Yˆ Y ) 2
i
ˆ
y 2
STC (Yi Y ) 2
i
y 2
R2
i
ˆ
y 2
ˆ22 xi2
ˆ22
i
x 2
y 2
i i
y 2
i
y 2
S x2
R ˆ 2
2 2
S
2
y
xy
2
2 i i
R
x y 2
i
2
i
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yi Y
ˆ Yˆ Y
2 2
i
R2
Y Y Y Y
2 2
i i
Otro criterio natural de bondad de ajuste es la correlación entre los valores reales y
estimados de Y. Vamos a demostrar que esto es maximizado usando los principio de
mínimos cuadrados para determinar los coeficientes de regresión
35
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yˆ Y 2
ˆ
Yi Y 2
Y Y Yˆ 2 Y Yˆ e2 Y R
Y i Y i Yˆi Y
i 2
i Y Yi
i i
Yˆ Y e Yˆ Y
i i i
Yi Y eiYˆi Y ei
ˆ 2
Yi Y
ˆ 2
Vamos a comenzar con el numerador y el sustituto del valor real de Y en el primer factor.
36
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yˆ Y 2
ˆ
Yi Y 2
Y Y Yˆ 2 Y Yˆ e2 Y R
Y i Y i Yˆi Y
i 2
i Y Yi
i i
Yˆ Y e Yˆ Y
i i i
Yi Y eiYˆi Y ei
ˆ 2
Yi Y
ˆ 2
37
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yˆ Y 2
ˆ
Yi Y 2
Y Y Yˆ 2 Y Yˆ e2 Y R
Y i Y i Yˆi Y
i 2
i Y Yi
i i
Yˆ Y e Yˆ Y
i i i
Yi Y eiYˆi Y ei
ˆ 2
Yi Y
ˆ 2
Yˆ e
i i 0 e i 0
Expandimos la expresión Los dos últimos términos son ambos cero (por las propiedades
de la recta de regresión)
38
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yˆ Y 2
ˆ
Yi Y 2
Y Y Yˆ 2 Y Yˆ e2 Y R
Y i Y i Yˆi Y
i 2
i Y Yi
i i
Yˆ Y e Yˆ Y
i i i
Yi Y eiYˆi Y ei
ˆ 2
Yi Y
ˆ 2
39
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yi Y
ˆ Yˆ Y
2 2
i
R2
Y Y Y Y
2 2
i i
Tenemos la misma expresión en el denominador, bajo una raíz cuadrada. Cancelando, nos
quedamos con la raíz cuadrada en el numerador.
40
Bondad del ajuste
rY ,Yˆ
Yi Y Yˆi Y Yi Y Yˆi Y
2 2 2 2
Yi Y
ˆ Yˆ Y
2 2
i
R2
Y Y Y Y
2 2
i i
n X iYi X Y
r
n X 2 X 2 n Y 2 Y 2
i i i i
Modelo de Regresión
Si que la verdadera relación es Y 1 2 X u
y que, dada una muestra de datos, hemos
ajustado el modelo Yˆ ˆ1 ˆ2 X . Las hipótesis
nulas y alternativas son
H 0 : 2 20 , H 1 : 2 20
ˆ2 20
t
Para probar H0, calculamos s.e.b2 .
Modelo de Regresión
Si que la verdadera relación es Y 1 2 X u
y que, dada una muestra de datos, hemos
ajustado el modelo Yˆ ˆ1 ˆ2 X . Las hipótesis
nulas y alternativas son
H 0 : 2 20 , H 1 : 2 20
ˆ2 20
t
Para probar H0, calculamos s.e.b2 .
Hay una diferencia importante. Al localizar el valor crítico de t, hay que tener en cuenta el
número de grados de libertad. En el caso de la variable aleatoria X, es n - 1, donde n es el
número de observaciones en la muestra.
6
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Modelo de Regresión
Si que la verdadera relación es Y 1 2 X u
y que, dada una muestra de datos, hemos
ajustado el modelo Yˆ ˆ1 ˆ2 X . Las hipótesis
nulas y alternativas son
H 0 : 2 20 , H 1 : 2 20
ˆ2 20
t
Para probar H0, calculamos s.e.b2 .
Como ilustración, consideraremos un modelo que relaciona los precios con los salarios.
p es la tasa porcentual anual de aumento de los precios
w es la tasa porcentual anual de aumento de los salarios.
9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
Hay 20 observaciones en la muestra. Hemos estimado 2 parámetros, así que hay 18 grados
de libertad.
9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
El valor crítico de t con 18 grados de libertad es 2.101 en el nivel del 5%. El valor absoluto
del estadístico t es menor que esto, por lo que no rechazamos la hipótesis nula.
9
Hipótesis nula: H0 : 2 = 1
Hipótesis alterna: H1 : 2 = 1
Función de
densidad de
probabilidad b2
rechazo H0 No rechazo H0 rechazo H0
2.5% 2.5%
-1,180
- 2,101 1 2,101
3
6
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Y 1 2 X u
En la práctica es inusual tener una idea del valor real de los coeficientes. Muy a menudo el
objetivo del análisis es demostrar que Y está influenciado por X, sin tener ninguna noción
previa específica de los coeficientes reales de la relación.
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Y 1 2 X u
H 0 : 2 0; H1 : 2 0
En este caso es habitual definir β2 = 0 como la hipótesis nula. En palabras, la hipótesis nula
es que X no influye en Y. Entonces intentamos demostrar que la hipótesis nula es falsa.
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Y 1 2 X u
H 0 : 2 0; H1 : 2 0
ˆ2 20 ˆ2
t
s.e.( ˆ2 ) s.e.( ˆ2 )
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
Y 1 2 X u
H 0 : 2 0; H1 : 2 0
ˆ2 20 ˆ2
t
s.e.( ˆ2 ) s.e.( ˆ2 )
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
Calculamos t para b2. Puedes ver que el estadístico t para el coeficiente de Precio es
enorme. Rechazaríamos la hipótesis nula de el precio no afecta a las ventas en el nivel de
significación del 5% (valor crítico alrededor de 1,98).
15
Hipótesis nula: H0 : 2 = 0
Hipótesis alterna: H1 : 2 = 0
Función de
densidad de
probabilidad b2
rechazo H0 No rechazo H0 rechazo H0
2.5% 2.5%
t= -16,37
- 1,98 0 1,98
3
6
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
Podemos ir mas allá y también rechazamos la hipótesis nula con un nivel de significación
del 1% (valor crítico alrededor de 2,62).
15
Hipótesis nula: H0 : 2 = 0
Hipótesis alterna: H1 : 2 = 0
Función de
densidad de
probabilidad b2
3
6
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
Por su parte, encontramos también la probabilidad de cometer error tipo I (Esto es rechazar
una hipótesis nula verdadera.
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
Si p = 0,05, la hipótesis nula podría ser rechazada en el nivel del 5%. Si fuera 0,01, podría
ser rechazada en el nivel del 1%. Si fuera 0,001, podría ser rechazada en el nivel del 0,1%.
Esto es asumiendo que estás usando pruebas de dos colas.
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a dos colas
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
En el presente caso p = 0 a tres decimales para el coeficiente de precio. Esto significa que
podemos rechazar la hipótesis nula H0: b2 = 0 en el nivel de 0,1%, sin tener que referirnos a
la tabla de valores críticos de t.
15
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a una cola
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
Sin embargo, en la práctica, las mejoras en la productividad pueden hacer que la tasa de
inflación de los costos, y por lo tanto la de la inflación de los precios, sea inferior a la de la
inflación de los salarios.
9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a una cola
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
Ciertamente, las mejoras en la productividad no harán que la inflación de los precios sea
mayor que la inflación de los salarios, por lo que en este caso se justifica descartar 2 > 1.
Nos quedamos con H0: 2 = 1 y H1: 2 < 1.
9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a una cola
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 < 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
Así podemos realizar una prueba unilateral, para la cual el valor crítico de t con 18 grados
de libertad en el nivel de significación del 5% es 1,73. Ahora podemos rechazar la hipótesis
nula y concluir que la inflación de los precios es significativamente más baja que la de los
salarios, en el nivel de significación del 5%. 9
Hipótesis nula: H0 : 2 = 1
Hipótesis alterna: H1 : 2 = 1
Función de
densidad de
probabilidad b2
rechazo H0 No rechazo H0 rechazo H0
2.5% 2.5%
-1,180
- 2,101 1 2,101
3
6
Hipótesis nula: H0 : 2 = 1
Hipótesis alterna: H1 : 2 < 1
Función de
densidad de
probabilidad b2
rechazo H0 No rechazo H0 rechazo H0
5%
-1,180
- 2,101 1
3
6
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Prueba t a una cola
Ejemplo: p = 1 + 2w + u
Hipótesis nula: H0: 2 = 1.0
Hipótesis alterna: H1: 2 ≠ 1.0
pˆ 1.21 0.82w
(0.05) (0.10)
ˆ2 200.82 1.00
t 1.80.
s.e.(b2 ) 0.10
Así podemos realizar una prueba unilateral, para la cual el valor crítico de t con 18 grados
de libertad en el nivel de significación del 5% es 1,73. Ahora podemos rechazar la hipótesis
nula y concluir que la inflación de los precios es significativamente más baja que la de los
salarios, en el nivel de significación del 5%. 9
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Intervalos de confianza
Modelo: Y = 1 + 2X + u
Hipótesis nula: H0: 2 = 0
Hipótesis alterna: H1: 2 ≠ 0
Rechazo H0 si o
Rechazo H0 si o
Rechazo H0 si o
No rechazo H0 si
34
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Intervalos de confianza
Modelo: Y = 1 + 2X + u
Hipótesis nula: H0: 2 = 0
Hipótesis alterna: H1: 2 ≠ 0
b2 20 b2 20
t crit t crit
s.e.b2 s.e.b2
Rechazo H0 si o
Rechazo H0 si o
Rechazo H0 si o
No rechazo H0 si
Modelo: Y = 1 + 2X + u
Hipótesis nula: H0: 2 = 0
Hipótesis alterna: H1: 2 ≠ 0
b2 20 b2 20
t crit t crit
s.e.b2 s.e.b2
Rechazo H0 si o
Rechazo H0 si o
No rechazo H0 si
Multiplicando por el error estándar de b2las condiciones para rechazar H0 pueden ser
escritas como se muestra.
34
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Intervalos de confianza
Modelo: Y = 1 + 2X + u
Hipótesis nula: H0: 2 = 0
Hipótesis alterna: H1: 2 ≠ 0
b2 20 b2 20
t crit t crit
s.e.b2 s.e.b2
Rechazo H0 si o
No rechazo H0 si
34
PROBANDO UNA HIPÓTESIS EN RELACIÓN A UN COEFICIENTE DE
REGRESIÓN
Intervalos de confianza
Modelo: Y = 1 + 2X + u
Hipótesis nula: H0: 2 = 0
Hipótesis alterna: H1: 2 ≠ 0
b2 20 b2 20
t crit t crit
s.e.b2 s.e.b2
Rechazo H0 si o
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
ˆ1 186,51
ˆ2 1,75
eeˆ1 5,76733
eeˆ 0,10686
2
-1,96≤ 2 ≤ -1,54
Función de
densidad de
probabilidad b2
2.5% 2.5%
–1.96 β -1,54
3
6
Econometría (y simulaciones)
Semana 4. Prueba F
(Y Y ) 2
(Yˆ Y ) 2
e 2
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
R2, la medida habitual de la bondad de ajuste, se definió entonces como la relación entre la
suma explicada de cuadrados y la suma total de cuadrados.
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u
La hipótesis nula que vamos a probar es que el modelo no tiene poder explicativo.
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
Como X es la única variable explicativa en este momento, la hipótesis nula es que Y no está
determinada por X. Matemáticamente, tenemos H0: 2 = 0
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
Las hipótesis relativas a la bondad del ajuste se prueban mediante el estadístico F, definido
como se muestra. Donde k es el número de parámetros de la ecuación de regresión, que
actualmente es sólo 2.
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
1
PRUEBA F
R2
SEC
i
(Yˆ Y ) 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
F es una función que aumenta monótonamente respect a R2. A medida que R2 aumenta, el
numerador aumenta y el denominador disminuye, así que por ambas razones F se
incrementa.
1
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit , 5% (1,18) 4.41
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
Habrá algún valor crítico que sólo superará el 5 por ciento de las veces. Si realizamos una
prueba de significación del 5 por ciento, rechazaremos H0 si el estadístico F es mayor que
este valor crítico. .
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit , 5% (1,18) 4.41
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
En el caso de una prueba de F, el valor crítico depende del número de variables explicativas
así como del número de grados de libertad.
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit , 5% (1,18) 4.41
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
Para el presente ejemplo, el valor crítico para una prueba de significación del 5 por ciento
es 4,41, cuando R2 es 0,20.
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit ,1% (1,18) 8.29
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
Si quisiéramos ser más precavidos, podríamos hacer una prueba al 1 por ciento. Para ello
el valor crítico de F es 8,29, donde R2 es 0,32.
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit ,1% (1,18) 8.29
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
Si quisiéramos ser más precavidos, podríamos hacer una prueba al 1 por ciento. Para ello
el valor crítico de F es 8,29, donde R2 es 0,32.
11
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit ,1% (1,18) 8.29
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
17
PRUEBA F
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit ,1% (1,18) 8.29
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
F
R 2 /( k 1)
140
F ( k 1, n k )
(1 R 2 ) /( n k )
120
R2 / 1
100 F (1,18)
(1 R 2 ) / 18
80
Fcrit ,1% (1,18) 8.29
60
40
20
0
0 0.2 0.4 0.6 0.8 1 R2
La razón es que una prueba F puede utilizarse para varias pruebas de análisis de la
varianza. En lugar de tener una tabla especializada para cada prueba, es más conveniente
tener sólo una.
19
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
Obsérvese que, para el análisis de regresión simple, las hipótesis nula y alternativa son
matemáticamente exactamente las mismas que para la prueba de la t de dos colas. ¿Podría
la prueba F llegar a una conclusión diferente de la prueba t?
1
PRUEBA F
(Y Y ) 2
(Yˆ Y ) 2
e 2
STC (Yi Y ) 2
Y 1 2 X u H 0 : 2 0, H1 : 2 0
SEC
(k 1)
SEC /( k 1) R 2
/( k 1)
F (k 1, n k ) STC
SRC /( n k ) SRC (n k ) (1 R 2 ) /( n k )
STC
1
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
31
PRUEBA F
F
SEC
Y
i Y
ˆ
2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )2
El denominador es la expresión para la varianza de la perturbación estimada. Expandimos
el numerador usando la expresión para la relación ajustada.
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
Los términos del intercepto (beta1) del numerador se cancelan. El resto del numerador
puede ser agrupado como se muestra.
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
Por lo tanto, obtenemos β22 dividiendo por el cuadrado del error estándar de β2. Esta es el
estadístico t, al cuadrado.
31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
Dado que la prueba F es equivalente a una prueba t de dos colas en el modelo de regresión
simple, no tiene sentido realizar ambas pruebas. De hecho, si se justifica, una prueba t de
una cola sería mejor que cualquiera de las dos porque es más potente (menor riesgo de 31
PRUEBA F
F
SEC
Y
i Y
ˆ 2
SRC /( n 2) ei2 n 2
ˆ ˆ ˆ ˆ
[ 1 2 X i ] [ 1 2 X ]
2
2 2 X i X
1 ˆ 2 2
ˆ u 2
ˆ u
ˆ
2 ˆ
2 ˆ
2
2 X i X 2
2 2 2
2
t 2
ˆ u ˆ u X i X
2
e.e.(ˆ2 )
2
31
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
El denominador de la expresión para F es, por lo tanto, 1,41. Nótese que esta es una
estimación de u2. . Su raíz cuadrada, denotada en Excel por Error típico, es una estimación
de la desviación estándar de u.
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
R2 0.72455
F (1, n 2) 268,30
(1 R ) /( n 2) (1 0.72455 ) /(104 2)
2
También comprobaremos F usando la expresión para ello en términos de R2. Vemos que la
misma de nuevo que está de acuerdo.
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
32
Resumen PRUEBA F
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.85120512
Coeficiente de determinación R^2 0.72455015
R^2 ajustado 0.72184966
Error típico 1.18916832
Observaciones 104
ANÁLISIS DE VARIANZA
Grados de libertad
Suma de cuadrados
Promedio de los cuadradosF Valor crítico de F
Regresión 1 379.413473 379.413473 268.303344 2.5535E-30
Residuos 102 144.240373 1.4141213
Total 103 523.653846
Fk 1,n k t 2ˆ
2
268,30 16,3799 2
¡Es correcta!
32
Econometría (y simulaciones)
Semana 4. Interpretación
de una ecuación
de regresión
40000
35000
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 2 4 6 8 10 12 14 16 18 20
Años de Estudio
El diagrama de dispersión muestra los ingresos mensuales en 2018 comparados con los años de
escolaridad, o años de estudio para una muestra de 2552 personas de la ciudad de Cochabamba en la
Encuesta de hogares 2018
1
Interpretación de una de regresión
40000
35000
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 2 4 6 8 10 12 14 16 18 20
Años de Estudio
12 años son los años que se pasan clases hasta el bachillerato. Los grados 13, 14, 15, 16 y 17 significan la
finalización de uno, a cinco años de universidad. Finalizando 17 años se tiene a graduados universitarios.
1
Interpretación de una de regresión
40000
35000
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 2 4 6 8 10 12 14 16 18 20
Años de Estudio
Finalizando 17 años se tiene a graduados universitarios. Los grados superiores indican años de educación
de postgrado
1
Interpretación de una de regresión
40000
35000
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 2 4 6 8 10 12 14 16 18 20
Años de Estudio
Finalizando 17 años se tiene a graduados universitarios. Los grados superiores indican años de educación
de postgrado
1
Interpretación de una de regresión
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.31083725
Coeficiente de determinación R^2 0.0966198
R^2 ajustado 0.09626553
Error típico 2199.32298
Observaciones 2552
ANÁLISIS DE VARIANZA
Promedio de
Grados de Suma de los Valor crítico
libertad cuadrados cuadrados F de F
Regresión 1 1319209484 1319209484 272.731775 2.751E-58
Residuos 2550 1.2334E+10 4837021.58
Total 2551 1.3654E+10
4
Interpretación de una de regresión
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.31083725
Coeficiente de determinación R^2 0.0966198
R^2 ajustado 0.09626553
Error típico 2199.32298
Observaciones 2552
ANÁLISIS DE VARIANZA
Promedio de
Grados de Suma de los Valor crítico
libertad cuadrados cuadrados F de F
Regresión 1 1319209484 1319209484 272.731775 2.751E-58
Residuos 2550 1.2334E+10 4837021.58
Total 2551 1.3654E+10
4
Interpretación de una de regresión
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.31083725
Coeficiente de determinación R^2 0.0966198
R^2 ajustado 0.09626553
Error típico 2199.32298
Observaciones 2552
ANÁLISIS DE VARIANZA
Promedio de
Grados de Suma de los Valor crítico
libertad cuadrados cuadrados F de F
Regresión 1 1319209484 1319209484 272.731775 2.751E-58
Residuos 2550 1.2334E+10 4837021.58
Total 2551 1.3654E+10
Por el momento, sólo nos preocuparemos de las estimaciones de los parámetros. Las nombres de las
variables de la regresión se enumeran en la primera columna y la segunda columna las estimaciones de
sus coeficientes.
4
Interpretación de una de regresión
Estadísticas de la regresión
Coeficiente de correlación múltiple 0.31083725
Coeficiente de determinación R^2 0.0966198
R^2 ajustado 0.09626553
Error típico 2199.32298
Observaciones 2552
ANÁLISIS DE VARIANZA
Promedio de
Grados de Suma de los Valor crítico
libertad cuadrados cuadrados F de F
Regresión 1 1319209484 1319209484 272.731775 2.751E-58
Residuos 2550 1.2334E+10 4837021.58
Total 2551 1.3654E+10
En este caso sólo hay una variable, escolaridad, y su coeficiente es de 145,005. La primera fila, en excel,
se refiere al intercepto también conocido como la constante. La estimación de la intercepción es de -
1599,98.
4
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Para responder a esta pregunta, debe referirse a las unidades en las que se miden las variables.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
La escolaridad se mide en años (en sentido estricto, grados completados), SALARIOS en Bs por mes. Así
que el coeficiente de pendiente implica que los ingresos por mes aumentan en 145 bolivianos en
promedio por cada año extra de escolaridad.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Veremos una representación geométrica de esta interpretación. Para ello, ampliaremos la sección
marcada del diagrama de dispersión.
1
Interpretación de una de regresión
3500
3450
3400
Bs 3.340
Salarios Bs Mensual
3350
3300
3100
3050
3000
10,80 11,00 11,20 11,40 11,60 11,80 12,00 12,20
Años de Estudio
La línea de regresión estimada indica que completar 12 años de escolaridad en lugar del 11años de
escolaridad aumentaría los ingresos en 145 BS, de 3.195 a 3.340 Bs, como tendencia general.
12
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Deberías preguntarte si esta es una cifra plausible. Si es inverosímil, podría ser una señal de que su
modelo está mal especificado de alguna manera.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Para niveles bajos de educación podría ser plausible. Pero para niveles altos parecería ser una
subestimación.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
¿Qué hay del término constante? (Intenta responder a esta pregunta antes de continuar con esta
presentación.)
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Literalmente, la constante indica que un individuo sin años de educación tendría un salario promedio de
1599 Bs.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Esa interpretación, si bien en este ejemplo tiene sentido, por la idea del salario mínimo nacional, en otros
contextos no tiene mucho sentido.
1
Interpretación de una de regresión
En este gráfico observamos un intercepto negativo, que es el punto donde la recta estimada choca con el
eje de las Y. A menudo la ausencia de datos en la parte inferior izquierda del gráfico, nos induce esa
interpretación literal, pues extrapolamos los datos hacia el “0”. Lo mejor es, muchas veces, no tratar de
interpretar de forma literal ese coeficiente. 1
Interpretación de una de regresión
Una solución segura al problema es limitar la interpretación al rango de los datos de la muestra, y negarse
a extrapolar sobre la base de que no tenemos pruebas fuera del rango de los datos.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Entonces, la única función del término constante es permitirle dibujar la línea de regresión a la altura
correcta en el diagrama de dispersión. Generalmente, no tiene un significado propio.
1
Interpretación de una de regresión
40000
^
35000 salarios 1599,98 145escolaridad
30000
Salarios (Bs Mensual)
25000
20000
15000
10000
5000
0
0 5 10 15 20
Años de Estudio
Otra solución es explorar la posibilidad de que la verdadera relación sea no lineal y que la aproximemos
con una regresión lineal. Pronto extenderemos la técnica de regresión para que se ajuste a los modelos
no lineales.
1