Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una parte importante del análisis econométrico es la obtención de una versión muestral
de la regresión a partir de los datos disponibles para el investigador. Como se vio, la
recta de regresión queda completamente caracterizada mediante sus parámetros, por lo
que la primera tarea consiste en la estimación de estos parámetros utilizando inferencia
estadística. En esta parte la econometría se apoya en los métodos de estimación
provenientes de la estadística, como por ejemplo el método de mínimos cuadrados, el de
máxima verosimilitud o el método de los momentos.
̂i = β̂1+β̂2 Xi
Y (2.1)
24
Gráficamente, en el ejemplo de remuneraciones y años de educación, continuando con
lo mostrado en la Figura 1.3, en la Figura 2.1 volvemos a dibujar a la FRP como la línea
continua y agregamos a la recta estimada o FRM como la línea punteada. Digamos que
si nuestra estimación de la recta es “buena”, ambas rectas deberían ser muy parecidas,
aunque no hay nada que diga que deban ser exactamente iguales o que alguna tenga una
pendiente mayor o menor que la otra. No obstante, el investigador no tiene cómo saber
qué tan parecidas son las rectas pues la FRP es invisible mientras que la FRM es
calculada por el econometrísta. Adicionalmente, aunque existe una sola relación
poblacional FRP, pueden existir infinidad de regresiones muestrales FRM, pues
dependerán cada una de ellas de la muestra con que se trabaje.
Figura 2.1
Rectas de regresión poblacional y muestral
̂i = Yi − β̂1 − β̂2 Xi
ei = Yi − Y
En comparación con los términos de perturbación, no hay nada que diga que los
residuos ei sean más grandes o más pequeños que las perturbaciones ui . Inclusive para
un mismo individuo ei y ui podrían tener signos distintos.
25
Yi = β̂1 + β̂2 Xi + ei (2.2)
Llamaremos a la ecuación (2.2) el modelo estimado, el cual viene a ser una versión
estimada de la ecuación (1.1) del capítulo anterior.
Antes de proseguir vale la pena aclarar algunos términos para evitar confusiones.
Fundamentalmente tenemos dos grupos de ecuaciones: las poblacionales y las
muestrales. Llamamos modelo econométrico a la expresión Yi = β1 + β2 Xi + ui , de la
cual la regresión o función de regresión poblacional es 𝐸[Yi |Xi ] = β1 + β2 Xi . Existen
también sus contrapartidas muestrales, vamos a llamar el modelo estimado a Yi = β̂1 +
β̂2 Xi + ei , de la cual la recta estimada o función de regresión muestral es ̂
Yi = β̂1 +
β̂2 Xi .
Existen métodos para calcular la FRM, siendo el más popular el de Mínimos Cuadrados
Ordinarios (MCO). Intuitivamente, este método busca trazar una recta estimada que
pase entre los puntos de las observaciones de tal manera que las distancias de cada
punto respecto a la recta estimada (es decir, los residuos) sean las más pequeñas
posibles. Para evaluar que estas distancias sean pequeñas, una forma podría ser
minimizar la suma de todos los residuos. No obstante, debido a que algunos residuos
son positivos y otros negativos, no tendría mucho sentido hacer una suma simple de
ellos. Por el contrario, elevando los residuos al cuadrado y sumándolos tendríamos una
mejor manera de evaluar la recta de regresión estimada propuesta en comparación con
otras rectas alternativas. La recta que mejor se ajuste a los datos será aquella que
presente la menor suma de cuadrados de los residuos.
26
El método de mínimos cuadrados ordinarios consiste en escoger los valores de β̂1 y β̂2 ,
tal que se minimice la SCR. Derivando la ecuación (2.3) respecto a los parámetros se
obtienen las condiciones necesarias de 1er orden de esta minimización:
∂SCR
̂1 = −2 ∑ni=1(Yi − β̂1 − β̂2 Xi ) = 0 (2.4)
∂β
∂SCR
̂2 = −2 ∑ni=1(Yi − β̂1 − β̂2 Xi ) . Xi = 0 (2.5)
∂β
Estas dos ecuaciones son conocidas como las “ecuaciones normales” de la estimación
MCO, y de las cuales se desprenden algunas propiedades que se verán más adelante. En
sí son dos ecuaciones con dos incógnitas (β̂1 y β̂2 ) que debemos resolver. Omitiendo los
subíndices de las sumatorias, de la ecuación (2.4) se cumple que
Y = β̂1 + β̂2 ̅
̅ X (2.4b)
La ecuación (2.4b) nos dice que la recta estimada pasa necesariamente por la
̅, ̅
combinación de valores (X Y) pues esos puntos satisfacen la ecuación. Podemos
despejar el valor de β̂1 y obtener
β̂1 = Y
̅ − β̂2 X
̅ (2.4c)
∑ Xi Yi = β̂1 ∑ Xi + β̂2 ∑ Xi 2
̅) ∑ Xi + β̂2 ∑ Xi 2
̅ − β̂2 X
∑ Xi Yi = (Y
2
Y ∑ Xi = β̂2 (∑ Xi − ̅
∑ Xi Yi − ̅ X ∑ Xi )
27
̅ ∑ Xi
∑ Xi Yi − Y
β̂2 = 2
∑ Xi − ̅ X ∑ Xi
∑(Xi − ̅
X) (Yi − ̅
Y)
β̂2 = 2 (2.6)
∑(Xi − ̅
X)
Una vez calculado, se puede obtener el valor estimado de β̂1 de la ecuación (2.4c).
Los estimadores de los parámetros por MCO, expresados en las ecuaciones (2.4c) y
(2.6) generan algunas propiedades numéricas muy importantes para la estimación. Estas
propiedades son:
Tal propiedad resalta el hecho que, para obtener los valores estimados, lo único
que se necesita es reemplazar los valores de las variables de la muestra en las
fórmulas (2.4c) y (2.6). No es necesario hacer ningún supuesto adicional ni
calcular otros parámetros para obtener estas estimaciones. Un detalle adicional
es que, al depender íntegramente de las muestras aleatorias, estos estimadores
son en sí mismos variables aleatorias.
b) ∑ ei = 0
28
directamente que el promedio de los residuos es igual a cero, e̅ = 0.1 Es
importante no confundir esta propiedad numérica de la estimación MCO con el
supuesto 2 sobre la nulidad del valor esperado del término de perturbación,
E[ui ] = 0. Esto último es un supuesto, mientras que la propiedad que estamos
explicando es un producto del proceso de minimización.
c) ∑ ei Xi = 0
d) ∑ ei ̂
Yi = 0
̅, Y
e) La recta de regresión estimada pasa por el punto de los promedios (X ̅).
̅=̅
f) ̂
Y Y
Para las variables X e Y, definimos las desviaciones (en minúscula y cursiva) respecto a
sus promedios como:
̅
𝑦i = Yi − Y
𝑥i = Xi − ̅
X
1
El lector puede notar que si el modelo econométrico no incluyera al intercepto, es decir si en el modelo
β1 = 0, entonces en el proceso de estimación no habría minimizar la SCR respecto a β̂1 . Luego, no
existiría la ecuación (2.4) y por lo tanto ya no se cumpliría esta característica.
2
Se deja al lector esta demostración.
29
1. ∑ 𝑥i = 0, ∑ 𝑦i = 0
2. ∑ 𝑥i Xi = ∑ 𝑥i2 , ∑ 𝑦i Yi = ∑ 𝑦i2
3. ∑ 𝑥i 𝑦i = ∑ 𝑥i Yi = ∑ Xi 𝑦i
Y = β̂2 (Xi − ̅
Yi − ̅ X) + ei − e̅
yi = β̂2 𝑥i + ei − e̅
Asumamos que e̅ = 0 , luego
𝑦i = β̂2 𝑥i + ei (2.7)
En términos gráficos, trabajar con las variables en desviaciones respecto a las medias
equivale a desplazar las observaciones hacia el origen, haciendo que el punto de los
promedios de las variables sea el (0, 0). Esto puede observarse en la Figura 2.2, en
donde los puntos negros corresponden a los datos en sus niveles originales y los puntos
grises son los datos en desviaciones respecto a las medias. Puesto que se trata de un
simple desplazamiento, la pendiente de una regresión que pase por esos puntos será la
misma, es decir tal pendiente β̂2 no se ve alterada por el desplazamiento. En cambio en
3
Se dejan estas demostraciones como ejercicio.
30
el modelo en desviaciones la estimación de β̂1 es igual a cero pues se fuerza a que la
recta pase por el origen.
Figura 2.2
Estimación del modelo en niveles y en desviaciones respecto a las medias
n n
i=1 i=1
𝜕SCR
̂2 = −2(𝑦i − β̂2 𝑥i )𝑥i = 0 (2.8)
𝜕β
∑(𝑥i 𝑦i − β̂2 𝑥i 2 ) = 0
∑ 𝑥i 𝑦i = β̂2 ∑ 𝑥i 2
∑ 𝑥i 𝑦i
β̂2 = (2.9)
∑ 𝑥i 2
31
Este resultado de la ecuación (2.9) es exactamente el mismo que la ecuación (2.6), por
lo que ambas expresiones se pueden usar en forma alternativa.
Ejemplo 2.1: Supongamos que contamos con datos de 12 personas sobre sus años de
educación (X) y sus salarios (Y), y queremos estimar el modelo de regresión lineal (1.1)
por mínimos cuadrados ordinarios utilizando estos datos. Vamos a computar en primer
lugar las variables en desviaciones respecto a sus promedios, para luego hacer el cálculo
de los valores estimados. En la Tabla 2.1 las columnas X e Y muestran los datos
hipotéticos con los que vamos a hacer el ejercicio. En la parte inferior de las columnas
X e Y se han calculado las sumas y los promedios de estas columnas.
Tabla 2.1
Cálculo de las variables del modelo en desviaciones
Obs. X Y x y x2 xy
1 4 225 -4.08 -307.17 16.67 1254.26
2 6 155 -2.08 -377.17 4.34 785.76
3 3 700 -5.08 167.83 25.84 -853.15
4 10 600 1.92 67.83 3.67 130.01
5 8 675 -0.08 142.83 0.01 -11.90
6 8 350 -0.08 -182.17 0.01 15.18
7 7 456 -1.08 -76.17 1.17 82.51
8 11 485 2.92 -47.17 8.51 -137.57
9 13 650 4.92 117.83 24.17 579.35
10 11 820 2.92 287.83 8.51 839.51
11 14 1150 5.92 617.83 35.01 3655.51
12 2 120 -6.08 -412.17 37.01 2507.35
Para hacer el cálculo del estimador de la pendiente, β̂2 , nos apoyamos en la ecuación
(2.9) (que es lo mismo que (2.6), y obtenemos
32
8846.83
β̂2 = 53.6443
164.92
El estimador del intercepto, β̂1, se obtiene de la ecuación (2.4c), que sería en este caso
El lector no debería tener problemas en realizar por su cuenta estos cálculos. Asimismo,
el parámetro β̂2 se puede obtener de expresiones equivalentes a (2.6). Estas son:
∑ Xi Yi − ̅
Y ∑ Xi 60467 − 6386 × 97
β̂2 = 2 = = 53.6443
∑ Xi − ̅ X ∑ Xi 949 − 8.0833 × 97
Tabla 2.2
Calculo de ̂
Y y de los residuos
Obs. X Y ̂
Y e e2
1 4 225 313.12 -88.12 7765.00
2 6 155 420.41 -265.41 70441.29
3 3 700 259.47 440.53 194062.29
4 10 600 634.98 -34.98 1223.94
5 8 675 527.70 147.30 21698.38
6 8 350 527.70 -177.70 31575.98
7 7 456 474.05 -18.05 325.88
33
8 11 485 688.63 -203.63 41464.81
9 13 650 795.92 -145.92 21291.96
10 11 820 688.63 131.37 17258.31
11 14 1150 849.56 300.44 90263.05
12 2 120 205.83 -85.83 7366.91
Como bien sabemos los estimadores obtenidos β̂1 y β̂2 son variables aleatorias pues sus
resultados varían según las muestras aleatorias tomadas. En esta sección vamos a ver
cuáles serán sus valores esperados y varianzas, y discutiremos sus propiedades.
∑ 𝑥i 𝑦i ∑ 𝑥i (Yi − ̅
Y) ∑ 𝑥i Yi − ̅Y ∑ 𝑥i ∑ 𝑥i Yi
β̂2 = = = =
∑ 𝑥i 2 ∑ 𝑥i 2 ∑ 𝑥i 2 ∑ 𝑥i 2
∑ 𝑥i (β1 + β2 Xi + ui ) β1 ∑ 𝑥i β2 ∑ 𝑥i Xi ∑ 𝑥i ui
β̂2 = = + +
∑ 𝑥i 2 ∑ 𝑥i 2 ∑ 𝑥i 2 ∑ 𝑥i 2
∑ 𝑥i ui
β̂2 = β2 + (2.10)
∑ 𝑥i 2
Tomando valor esperado a la expresión en (2.10) obtenemos
∑ 𝑥i ui ∑ 𝑥i ui
E[β̂2 ] = E [β2 + ] = β2 + E [ ]
∑ 𝑥i 2 ∑ 𝑥i 2
Bajo el supuesto 4,
1
E[β̂2 ] = β2 + ∑ 𝑥i E[ui ]
∑ 𝑥i 2
34
Dado el supuesto 2, el valor esperado del término de perturbación es cero, con ello
resulta que β̂2 es un estimador insesgado.
E[β̂2 ] = β2
Esto quiere decir que aunque β̂2 pueda tomar valores en forma aleatoria, en promedio
esperaremos que este estimador de MCO entregue un valor que sea igual al poblacional,
siempre y cuando se cumplan los supuestos aludidos del modelo econométrico. No debe
pensarse que la propiedad de insesgadez asegura que β̂2 = β2 , pues debido a las
variabilidades muestrales eso ocurrirá solo por cuestión de suerte. Lo que si ocurrirá es
que si se tomaran infinitas muestras y si se calculara en cada una de ellas el valor de β̂2 ,
el promedio de todos esos valores calculados sí coincidirá con el verdadero valor
poblacional.
35
Figura 2.3
Cuatro muestras aleatorias y las estimaciones MCO
Calculemos ahora el valor esperado del estimador del intercepto, β̂1. Partiendo del
modelo econométrico Yi = β1 + β2 Xi + ui , lo podemos promediar aplicándole
sumatoria y dividiéndolo entre el número de observaciones de la muestra obteniendo
̅ = β1 + β2 X
Y ̅ + u̅. Reemplazando esta expresión en la ecuación (2.4c) se obtiene
β̂1 = β1 + β2 X
̅ + u̅ − β̂2 X
̅
̅(β2 − β̂2 ) + u̅
= β1 + X (2.11)
E[β̂1 ] = E[β1 + X
̅(β2 − β̂2 ) + u̅] = β1 + X
̅(β2 − E[β̂2 ]) + E[u̅]
∑u ∑ E[u ]
Dado que E[β̂2 ] = β2, queda E[β̂1 ] = β1 + E[u̅] = β1 pues E[u̅] = E [ n i ] = n i =
36
2
Var(β̂2 ) = E [β̂2 − E[β̂2 ]]
2
∑ 𝑥i ui 1 2
Var(β̂2 ) = E [ ] = E [(∑ 𝑥i i ]
u )
∑ 𝑥i 2 (∑ 𝑥i 2 )2
1
= E [∑ 𝑥i 2 ui 2 + 2 ∑ ∑ 𝑥i 𝑥j ui uj ]
(∑ 𝑥i 2 )2
i<j
1
= [∑ 𝑥i 2 E[ui 2 ] + 2 ∑ ∑ 𝑥i 𝑥j E[ui uj ]]
(∑ 𝑥i 2 )2
i<j
1 σ2
Var(β̂2 ) = [∑ 𝑥i
2 2
σ ] = ∑ 𝑥i 2
(∑ 𝑥i 2 )2 (∑ 𝑥i 2 )2
σ2
Var(β̂2 ) = (2.12)
∑ 𝑥i 2
Obsérvese en (2.12) que la variabilidad de β̂2 es directamente proporcional a la varianza
del término de perturbación e inversamente proporcional a la variabilidad de X respecto
a su media. Es decir, la estimación de β̂2 será más imprecisa mientras más grande sea la
varianza σ2 , que es a su vez la varianza de la variable endógena Y. Por otro lado, si la
variable X muestra una gran amplitud de valores, esto brindará más información para
poder calcular el efecto de X sobre Y. Si X presenta una mínima variabilidad alrededor
de su promedio, la varianza de la estimación aumentará4.
4
Se sugiere al lector trazar diagramas de dispersión considerando variaciones en X e Y grandes y
pequeñas, con el fin de observar estas propiedades.
37
̅ 2 (β̂2 − β2 )2 + u̅2 − 2X
= E [X ̅(β̂2 − β2 )u̅]
̅ 2 Var(β̂2 ) + E[u̅2 ] − 2X
=X ̅E(β̂2 − β2 )u̅
σ2 σ2 ∑ 𝑥 u ∑ ui
=̅
X2 + ̅E [ i i .
− 2X ]
∑ 𝑥i 2 n ∑ 𝑥i 2 n
∑ 𝑥i ui ∑ ui 1
E[ . ]= E [∑ 𝑥i ui ∑ ui ]
∑ 𝑥i 2 n n ∑ 𝑥i 2
1
= E [∑ 𝑥i ui 2 ∑ ∑ ui uj (𝑥i + 𝑥j )]
n ∑ 𝑥i 2
1
= [σ2 ∑ 𝑥i + ∑ ∑ Cov(ui uj )(𝑥i + 𝑥j )] = 0
∑
n 𝑥i 2
2.6 Estimación de 𝛔𝟐
̅ = β1 + β2 X
Si a la ecuación (1.1) le restamos Y ̅ + u̅ se obtiene
ei = 𝑦i − β̂2 𝑥i (2.15)
38
ei = −(β̂2 − β2 )𝑥i + (ui − u̅)
Multiplicamos y dividimos el segundo término del lado derecho por n − 1 (para darle la
forma de la varianza muestral de ui , esto es ∑(ui − u̅)2 /(n − 1), aplicando las
propiedades de las desviaciones en el tercer término del lado derecho, y utilizando la
ecuación (2.10) obtenemos
∑(ui − u̅)2 ∑ 𝑥i ui
E [∑ ei 2 ] = Var(β̂2 ) ∑ 𝑥i2 + (n − 1)E [ ] − 2E [ ∑ 𝑥i ui ]
n−1 ∑ 𝑥i 2
2
∑ 𝑥i ui
= Var(β̂2 ) ∑ 𝑥i2 + (n − 1)Var(ui ) − 2 ∑ xi2 𝐸 [( ) ]
∑ 𝑥i 2
∑ ei 2
2
s = (2.16)
n−2
2)
∑ ei 2 1
E(s = E[ ]= E [∑ ei 2 ]
n−2 n−2
39
[n − 2] 2
= σ = σ2
[n − 2]
calcular las varianzas de los parámetros, nótese que estas varianzas dependen del
parámetro poblacional no observable σ2 . Entonces utilizaremos al estimador s2 en su
lugar en las ecuaciones (2.12) y (2.13), teniendo entonces a las varianzas estimadas
siguientes:
1 ̅2
X 1 (8.0833)2
̂ 2
Var(β1 ) = s ( + ) = 50473.78 ( + ) = 24203.9499
n ∑ 𝑥i 2 12 164.92
s2 50473.78
Var(β̂2 ) = = = 306.0536
∑ 𝑥i 2 164.92
caso de β̂2 ,
∑ 𝑥i 𝑦i 1 𝑥i
β̂2 = = ∑ 𝑥i Yi = ∑ ( ) Y = ∑ wi Yi (2.17)
∑ 𝑥i 2 ∑ 𝑥i 2 ∑ 𝑥i 2 i
La ecuación (2.17) nos dice que β̂2 es igual a la suma ponderada de Yi , en donde los
𝑥
ponderadores son las expresiones wi = ∑ 𝑥i 2. Además, como se comprobó que estos
i
estimadores son insesgados, se afirma que los estimadores MCO pertenecen a la clase
de estimadores lineales e insesgados.
40
Para probar este teorema, planteamos otro estimador lineal que sea insesgado.
Definamos este estimador como b2 = ∑ ci Yi , en donde los valores ci son ponderadores
no aleatorios, que podrían ser cualquier número. Reemplazando la expresión del modelo
econométrico en b2 se obtiene
b2 = ∑ ci (β1 + β2 Xi + ui ) = β1 ∑ ci + β2 ∑ ci Xi + ∑ ci ui
E[b2 ] = β1 ∑ ci + β2 ∑ ci Xi + ∑ ci E[ui ] = β1 ∑ ci + β2 ∑ ci X i
b2 = β2 + ∑ ci ui
= ∑ ci 2 E[ui 2 ] + 2 ∑ ∑ ci cj E[ui uj ] = σ2 ∑ ci 2
i<j
∑ 𝑥i ci 𝑥i 2
∑ wi (ci − wi ) = ∑ wi ci − ∑ wi 2 = − ∑ ( )
∑ 𝑥i 2 ∑ 𝑥i 2
1 ∑ 𝑥i 2
= − =0
∑ 𝑥i 2 (∑ 𝑥i 2 )2
41
Esto es cierto dado que ∑ ci 𝑥i = 1. Volviendo a la expresión (2.18), multiplicamos todo
por σ2 y tenemos
σ2 ∑ ci 2 = σ2 ∑ wi 2 + σ2 ∑(ci − wi )2
σ 2
No es difícil comprobar que Var(β̂2 ) = ∑ 𝑥 2 = σ2 ∑ wi 2 . Luego,
i
Al ser el último término mayor o igual a cero, resulta que Var(b2 ) ≥ Var(β̂2 ).
̅)2
∑(Yi − Y
SY2 =
n−1
Para relacionar a la SCT con la recta estimada, elevamos al cuadrado a (2.7) y aplicando
sumatorias resulta en
El último término del lado derecho es igual a cero pues en el modelo en desviaciones,
∑ 𝑥i ei = 0. Luego,
42
SCT = SCE + SCR.
SCR SCE
R2 = 1 − =
SCT SCT
En la Figura 2.4 mostramos dos conjuntos de datos con una recta estimada por MCO, y
el R-cuadrado respectivo. En la figura superior se observa una dispersión mayor de las
observaciones alrededor de la recta que en la figura inferior. Correspondientemente, el
R-cuadrado de la figura superior es apenas de 0.5767 mientras que en el gráfico inferior
es de 0.9429. Por esa razón los datos del panel inferior muestran un mejor ajuste.
∑(Xi − ̅ X)(Yi − ̅
Y)
rXY = n − 1
̅ 2 ̅ 2
√∑(Xi − X) √∑(Yi − Y)
n−1 n−1
43
Por último, se debe tener en cuenta que el R-cuadrado solamente es una medida
estadística acerca de la asociación entre las variables X e Y, pero no se le debe tomar
como un indicador que valide algún tipo de causalidad entre las variables. Es posible
que una regresión entre dos variables no unidas causalmente muestre un R-cuadrado
muy alto.
Figura 2.4
Dos conjuntos de datos y sus R2
Utilizaremos los datos hipotéticos del Ejemplo 2.1 para hacer una estimación por
mínimos cuadrados ordinarios en Stata. Como primer paso, luego de abrir el programa
podríamos introducir los datos de las columnas X e Y de la Tabla 2.1 en el editor de
44
datos. Para acceder a este editor, se selecciona el menú Data, luego la opción Data
Editor, y luego Data Editor (Edit), o directamente haciendo click en el ícono de Data
Editor.
Luego de introducir los datos manualmente, las columnas aparecen con títulos var1 y
var2. Estos títulos son los nombres de las variables, y pueden ser cambiados haciendo
doble click en los encabezados de las columnas. Llamemos a la primera columna “x”, y
a la segunda “y”. Finalmente se cierra la ventana del Data Editor.
regress y x
Tabla 2.3
Tabla de resultados de Stata
45
los residuos figura como Residual, es SCR = 504737.797, y es igual al valor que se
calculó en la Tabla 2.2.
Ejercicios
2.1 Demuestre que cuando usted regresiona a una variable Yi contra una constante y
46
𝑌 𝑦
∑ Yi ∑ Xi Y i ∑( 𝑖 ) ∑( 𝑖 )
Xi 𝑥𝑖
b1 = ∑ X b2 = ∑ X2i
b3 = b4 =
i n 𝑛
2.8 Suponga que las variables X e Y están relacionadas de acuerdo con la función de
regresión poblacional Yi = β2 Xi + ui , la cual no tiene intercepto. Suponga que
equivocadamente usted regresiona el modelo con intercepto por MCO obteniendo
Yi = β̂1 + β̂2 Xi . Calcule la esperanza de los estimadores y la varianza Var(β̂2 ).
2.9 Se comete un error al introducir los datos de la variable Y, sumando c unidades a la
n-ésima observación, tal como se muestra en el siguiente gráfico
Y
El punto blanco
muestra el valor
incorrecto. La altura
de la flecha es c.
Año 1 2 3 4 5 6 7 8 9 10 11 12
Consumo (C) 15.6 6.4 9.2 14.9 7.2 7.6 7.2 7.2 7.9 8.8 4.1 11.1
Ingreso (I) 16.3 6.8 8.6 15.3 8.7 7.8 8.7 8.3 9.4 10.8 5.1 11.6
47
Estime el modelo Ci = β1 + β2 Ii + ui . Halle las varianzas de los estimadores y el
coeficiente de determinación R-cuadrado.
48