Está en la página 1de 1

444 Capítulo 12 Regresión lineal múltiple y ciertos modelos de regresión no lineal

En ocasiones se genera confusión al decir que un modelo polinomial es un mo-


delo lineal. Sin embargo, los estadísticos normalmente se refieren a un modelo lineal
como aquel en el que los parámetros ocurren en forma lineal, independientemente de có-
mo las variables independientes entran en el modelo. Un ejemplo de modelo no lineal es
la relación exponencial
μY |x = αβx ,

que se estima mediante la ecuación de regresión


ŷ = abx .
En ciencias e ingeniería hay muchos fenómenos cuya naturaleza no es inherente-
mente lineal y, cuando se conoce su verdadera estructura, no hay duda de que habría
que intentar ajustar el modelo real. Existe mucha literatura acerca de la estimación de
modelos no lineales por medio de mínimos cuadrados. Los modelos no lineales que se
analizan en este capítulo se relacionan con condiciones no ideales, en las cuales el ana-
lista está seguro de que la respuesta y, por lo tanto, el error de respuesta del modelo no
se distribuyen normalmente sino que, más bien, tienen una distribución binomial o de
Poisson. Estas situaciones ocurren a menudo en la práctica.
El estudiante que busque profundizar en la explicación de la regresión no lineal
debe consultar la obra de Myers Classical and Modern Regression with Applications
(1990; véase la bibliografía).

12.2 Estimación de los coeficientes


En esta sección se calculan los estimadores de mínimos cuadrados de los parámetros β0,
β1,..., βk mediante el ajuste del modelo de regresión lineal múltiple
μY |x 1 ,x 2 ,...,x k = β0 + β1 x 1 + · · · + βk x k

a los puntos de los datos


{(x 1i , x 2i , . . . , x ki , yi ); i = 1, 2, . . . , n y n > k},

donde yi es la respuesta observada a los valores x1i, x2i,..., xki de las k variables inde-
pendientes x1, x2,..., xk. Se supone que cada observación (x1i, x2i,..., xki, yi) satisface la
siguiente ecuación:
Modelo de y i = β0 + β1 x 1i + β2 x 2i + · · · + βk x ki + i
regresión lineal o bien,
múltiple y i = ŷ i + ei = b0 + b1 x 1i + b2 x 2i + · · · + bk x ki + ei ,
donde i y ei son el error aleatorio y el residual, respectivamente, asociados con la res-
puesta yi y con el valor ajustado ŷi.
Como en el caso de la regresión lineal simple, se supone que los i son independientes y
están distribuidos en forma idéntica con media cero y varianza común σ 2.
Si usamos el concepto de mínimos cuadrados para obtener los estimados b0, b1,...,
bk, minimizamos la expresión
n n
SCE = e2i = ( y i − b0 − b1 x 1i − b2 x 2i − · · · − bk x ki ) 2 .
i =1 i =1
Si, a su vez, diferenciamos la SCE respecto a b0, b1,..., bk e igualamos el resultado a cero,
generamos el conjunto de k + 1 ecuaciones normales para la regresión lineal múltiple.

También podría gustarte