Está en la página 1de 1

12.

4 Propiedades de los estimadores de mínimos cuadrados 453

Estime los coeficientes de regresión del modelo x 1, x2 , x3 , y,


ŷ = b0 + b1 x 1 + b2 x 2 + b3 x 3 + b4 x 4 . RS del emisor RS de la base E-B-RS hFE
16.12 220.5 3.375 48.14
12.16 Un ingeniero de una empresa de semiconduc- 15.13 223.5 6.125 109.60
tores desea modelar la relación entre la ganancia o hFE 15.50 217.6 5.000 82.68
de un dispositivo (y) y tres parámetros: RS del emisor 15.13 228.5 6.625 112.60
(x1), RS de la base (x2) y RS del emisor a la base (x3). A 15.50 230.2 5.750 97.52
continuación se muestran los datos: 16.12 226.5 3.750 59.06
x 1, x2 , x3 , y, 15.13 226.6 6.125 111.80
RS del emisor RS de la base E-B-RS hFE 15.63 225.6 5.375 89.09
15.38 234.0 8.875 171.90
14.62 226.0 7.000 128.40 15.50 230.0 4.000 66.80
15.63 220.0 3.375 52.62 14.25 224.3 8.000 157.10
14.62 217.4 6.375 113.90 14.50 240.5 10.870 208.40
15.00 220.0 6.000 98.01 14.62 223.7 7.375 133.40
14.50 226.5 7.625 139.90 (Datos de Myers, Montgomery y Anderson-Cook, 2009).
15.25 224.1 6.000 102.60
(cont.) a) Ajuste una regresión lineal múltiple para los datos.
b) Prediga hFE cuando x1 = 14, x2 = 220 y x3 = 5.

12.4 Propiedades de los estimadores de mínimos cuadrados


Las medias y varianzas de los estimadores b0, b1,..., bk se obtienen con facilidad si se
hacen ciertas suposiciones sobre los errores aleatorios 1, 2,..., k, que son idénticas
a las que se hacen en el caso de la regresión lineal simple. Si suponemos que dichos
errores son independientes, cada uno con media igual a cero y varianza σ 2, entonces
podemos demostrar que b0, b1,..., bk son, respectivamente, estimadores no sesgados de
los coeficientes de regresión β0, β1,..., βk. Además, las varianzas de las b se obtienen por
medio de los elementos del inverso de la matriz A. Observe que los elementos fuera de la
diagonal de A = X X representan sumas de productos de los elementos en las columnas
de X; mientras que los elementos en la diagonal de A son las sumas de los cuadrados de
los elementos en las columnas de X. La matriz inversa, A-1, aparte del multiplicador σ 2,
representa la matriz de varianza-covarianza de los coeficientes de regresión estima-
dos. Es decir, los elementos de la matriz A-1σ2 muestran las varianzas de b0, b1,..., bk en
la diagonal principal y las covarianzas fuera de la diagonal. Por ejemplo, en un problema
de regresión lineal múltiple con k = 2 se podría escribir
c00 c01 c02
(X X ) −1 = c10 c11 c12
c20 c21 c22

con los elementos debajo de la diagonal principal determinados por la simetría de la


matriz. Entonces, se escribe
σb2i = cii σ 2, i = 0, 1, 2,
σbi bj = Cov(bi , bj ) = cij σ , i ≠ j.
2

Desde luego, los estimados de las varianzas y, por lo tanto, sus errores estándar, se
obtienen reemplazando σ 2 con el estimado apropiado, el cual se obtuvo a partir de los
datos experimentales. Un estimado no sesgado de σ 2 de nuevo se define en términos de

También podría gustarte