Está en la página 1de 15

1

REGRESIN NO LINEAL
ndice
1. CUNDO EXISTE REGRESIN? .............................................................................................................. 1
2. TIPOS DE REGRESIN............................................................................................................................... 2
3. REPRESENTATIVIDAD DE LA CURVA DE REGRESIN.......................................................................... 3
3.1. Poder explicativo del modelo...................................................................................................................... 3
3.2. Poder explicativo frente a poder predictivo ................................................................................................ 3
3.3. Causalidad.................................................................................................................................................. 4
3.4. Extrapolacin.............................................................................................................................................. 4
4. REGRESIN NO LINEAL E INFERENCIA................................................................................................... 4
5. LINEALIZACIN............................................................................................................................................ 5
6. MNIMOS CUADRADOS ORDINARIOS Y PONDERADOS......................................................................... 5
7. ESTIMACIN DE LOS PARMETROS CON EL MTODO MONTE CARLO............................................. 5
8. ALGORITMO DE GAUSSNEWTON ........................................................................................................... 5
8.1. El problema................................................................................................................................................. 6
8.2. El algoritmo................................................................................................................................................. 6
8.3. Otros algoritmos ......................................................................................................................................... 6
9. REGRESIN NO LINEAL ............................................................................................................................. 7
9.1. Parbola de regresin ................................................................................................................................ 7
9.2. Regresin hiperblica................................................................................................................................. 8
9.3. Funcin exponencial, potencial, y logartmica............................................................................................ 8
10. EJEMPLOS DE REGRESIN NO LINEAL............................................................................................... 10
10.1. Ajuste de una funcin parablica: Y
*
= a + b X + c X
2
............................................................................. 10
10.2. Ajuste de una funcin potencial: Y
*
= a X
b
.............................................................................................. 11
10.3. Ajuste de una funcin exponencial: Y
*
= a b
X
......................................................................................... 12
11. RELACIN NO LINEAL Y NO LINEALIZABLE......................................................................................... 12
12. BIBLIOGRAFA.......................................................................................................................................... 15
1. Cundo existe regresin?
De una forma general, lo primero que suele hacerse para ver si dos variables aleatorias estn relacionadas
o no (de ahora en adelante se denominarn X e Y , siendo Y la variable dependiente, y X la variable
independiente o regresora), consiste en tomar una muestra aleatoria. Sobre cada individuo de la muestra se
analizan las dos caractersticas en estudio, de modo que para cada individuo se tenga un par de valores
( )( ) , 1, 2, ,
i i
x y i n = .
Seguidamente, se representan dichos valores en unos ejes cartesianos, dando lugar a un diagrama de
dispersin o nube de puntos. As, cada individuo vendr representado por un punto en el grfico, de
coordenadas
( )
,
i i
x y . De esa forma, se podr obtener una primera idea acerca de la forma y de la
dispersin de la nube de puntos. Al dibujar la nube de puntos, se encontrar, entre otros, casos como los
que hace referencia la figura 1.
En primer lugar deber distinguirse entre dependencia funcional y dependencia estocstica. En el primer
caso la relacin es perfecta: ( ) Y f X = (figura 1d y 1e); es decir, los puntos del diagrama de dispersin
correspondiente aparecen sobre la funcin ( ) Y f X = . Por ejemplo, en 1d sera Y a b X = + .
Sin embargo, suele ocurrir que no existe una dependencia funcional perfecta, sino otra dependencia o
relacin menos rigurosa o dependencia estocstica (figura 1b y 1c). Entonces, la relacin entre X e Y , se
escribira (en el caso de la figura 1b) de la forma Y a b X e = + + , donde e es un error (o residual), debido
por ejemplo, a no incluir variables en el modelo que sean importantes a la hora de explicar el
2
comportamiento de Y , y cuyos efectos sean diferentes a los de X ; errores aleatorios o de medida, o
simplemente a que se ha especificando mal el modelo (por ejemplo, en lugar de ser una recta, sea una
parbola).
Figura 1. Tipos de relacin entre dos variables X e Y
El caso de la figura 1a se corresponde con el de ausencia de relacin, o independencia.
En la dependencia estocstica, se distinguen dos tipos de tcnicas:
(a) Anlisis de regresin;
(b) Anlisis de correlacin.
El anlisis de correlacin, tiene como fin dar respuesta a las preguntas:
Existe dependencia estocstica entre las variables?;
Cul es el grado de dicha dependencia?
En el anlisis de regresin las cuestiones son:
Cul es el tipo de dependencia entre las dos variables?;
Pueden estimarse los valores de Y a partir de los de X ? y Con qu precisin?.
De modo general, se dir que existe regresin de los valores de una variable con respecto a los de otra,
cuando hay alguna lnea, llamada lnea de regresin que se ajusta ms o menos claramente a la nube de
puntos.
Si existe regresin, se denominar ecuacin de regresin a la ecuacin que describe la relacin entre las
dos variables. Por ejemplo:
Y a b X = +
2
Y a b X c X = + +
En general, la variable X se conoce como variable independiente, y la Y como variable dependiente.
Evidentemente puede ser arbitrario el determinar la existencia de regresin as como el tipo de la misma, ya
que depende del autor o del estado de nimo de la persona en un momento determinado. Por lo tanto, se
hacen necesarios mtodos estadsticos objetivos, independientes del investigador, para determinar la
existencia o no de relacin y el tipo de la misma.
2. Tipos de regresin
Si las dos variables X e Y se relacionan segn un modelo de lnea recta, se habla de regresin lineal
simple:
Y a b X = +
3
Cuando las variables X e Y se relacionan segn una lnea curva, se habla de regresin no lineal o
curvilnea. Aqu se puede distinguir entre regresin parablica, exponencial, potencial, etc.
Cuando hay ms de una variable independiente
( )
1 2
, , ,
n
X X X , y una sola variable dependienteY , se
habla de regresin mltiple. Las variables
i
X se denominan, regresoras, predictoras o independientes.
3. Representatividad de la curva de regresin
3.1. Poder explicativo del modelo
La curva de regresin, tiene carcter de lnea media que trata de resumir o sintetizar la informacin
suministrada por los datos. Si tiene carcter de lnea media (de promedio, en definitiva), deber ir
acompaada siempre de una medida que exprese su representatividad, es decir, de lo buena que es la
curva, ya que el haber obtenido la mejor de todas no da garantas de que sea buena. Se necesita, por tanto,
una medida de dispersin, que tenga en cuenta la dispersin de cada observacin con respecto a la curva,
es decir, lo alejado que se encuentra cada punto de la curva. Es decir, se debe evaluar esas distancias
verticales a la curva, es decir, los errores o residuales.
Si las dispersiones son pequeas, la curva ser un buen representante de la nube de puntos, o lo que es lo
mismo, la bondad de ajuste del modelo ser alta. Si la dispersin es grande, la bondad de ajuste ser baja.
Una forma de medir dicha bondad de ajuste es precisamente evaluando la suma de los cuadrados de los
errores. Por tanto, se llamar varianza residual a la expresin:
( )
2
*
1 2
n
i i
i
e
y y
S
n
=

=

Si la varianza residual es grande, el modelo ser malo, es decir, la curva no explicar el comportamiento
general de la nube.
La cota mxima de la varianza residual es la varianza que se trata de explicar mediante el modelo de
regresin, es decir, la varianza de la variable dependiente. Por tanto, sin ms que hacer relativa la varianza
residual respecto de su mximo valor, y multiplicando por 100, se obtiene el porcentaje de variacin no
explicado por el modelo:
2
2
% 100
e
y
S
de variaciones sin explicar
s
=
En el que es fcil obtener una medida
2
R o coeficiente de determinacin que indique el porcentaje de
variacin controlada o explicada mediante el modelo. Expresado en tantos por 1, ser:
2
2
2
1
e
y
S
R
s
=
Como puede observarse, a partir de la expresin anterior:
2
0 1 R < < . Por tanto:
Si
2
1 R = no hay residuos: habr una dependencia funcional. Cuanto ms se acerque dicho valor a la
unidad, mayor poder explicativo tendr el modelo de regresin. Cuanto ms cercano a 0 est dicho
valor, menor poder explicativo;
Si
2
0 R = entonces X no explica en absoluto ninguna de las variaciones de la variable Y , de modo
que o bien el modelo es inadecuado, o bien las variables son independientes.
3.2. Poder explicativo frente a poder predictivo
Un modelo de regresin con un alto porcentaje de variaciones explicado, puede no ser bueno para predecir,
ya que el que la mayora de los puntos se encuentren cercanos a la recta de regresin, no implica que todos
4
lo estn, y puede ocurrir, que justamente para aquel rango de valores en el que el investigador est
interesado, se alejen de la recta, y por tanto, el valor predictivo puede alejarse mucho de la realidad.
La nica forma de poder evaluar el poder predictivo del modelo es tras la observacin y el anlisis de los
grficos de residuales, es decir, de diagramas de dispersin, en los que en el eje de ordenadas se colocan
los residuales, y en el eje de abscisas se colocan o bien X , Y , o
*
Y .
Slo si la banda de residuales es homognea, y se encuentran todos los puntos no demasiado alejados del
0 (aunque depende de la escala de medida), diremos, que un modelo con un alto poder explicativo, tambin
es bueno para predecir.
3.3. Causalidad
Es muy importante resaltar el hecho, de que un modelo sea capaz de explicar de manera adecuada las
variaciones de la variable dependiente en funcin de la independiente, no implica que la primera sea causa
de la segunda.
Es un error muy comn confundir causalidad con casualidad. El hecho de que las variables estn
relacionadas no implica que una sea causa de la otra, ya que puede ocurrir el hecho de que se est dando
una variacin concomitante, por el simple hecho de que las dos son causa de una tercera. Por ejemplo, si
se realiza un estudio en el que se analiza el nmero de canas ( ) X y la presin arterial ( ) Y podra
encontrarse una relacin lineal casi perfecta. Eso no significa que el tener canas aumente la presin arterial,
lo que verdaderamente est ocurriendo es que es la edad, la causante, de que se tengan ms canas y una
tendencia a tener ms alta la presin arterial.
3.4. Extrapolacin
Es importante resaltar el hecho de que al hacer predicciones, no deben extrapolarse los resultados ms all
del rango de la variable X utilizado para ajustar el modelo, ya que ms all de ese rango se desconoce
qu puede estar ocurriendo.
De todos es conocido que las plantas necesitan abono para poder crecer y que hay que abonarlas, de modo
que en principio, cuanto ms abono se les suministre ms crecern. Pero qu ocurrira si se abonase
demasiado el suelo? Obviamente, morira la planta. Esto se traduce en que conforme aumenta la cantidad
de abono, el crecimiento es ms notable, pero a partir de un punto, la planta deja de crecer y muere, como
refleja la figura 2 que ilustra el peligro de extrapolar los resultados.
Figura 2: Comparacin de una posible verdadera relacin entre cantidad de abono y crecimiento de
una planta, con los resultados de una recta de regresin obtenida mediante el estudio de un rango
limitado de valores de abono.
4. Regresin no lineal e inferencia
En estadstica, la regresin no lineal es un problema de inferencia para un modelo tipo:
( ) , y f x = +
5
basado en datos multidimensionales , x y , donde f es alguna funcin no lineal respecto a algunos
parmetros desconocidos . Como mnimo, se pretende obtener los valores de los parmetros asociados
con la mejor curva de ajuste (habitualmente, con el mtodo de los mnimos cuadrados). Con el fin de
determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadstica tales
como intervalos de confianza para los parmetros as como pruebas de bondad de ajuste.
5. Linealizacin
Algunos problemas de regresin no lineal pueden linealizarse mediante una transformacin en la
formulacin del modelo. Por ejemplo, considrese el problema de regresin no lineal (ignorando el trmino
de error):
( ) exp y a b x =
Aplicando logaritmos a ambos lados de la ecuacin, se obtiene:
( ) ( ) ln ln y a b x = +
lo cual sugiere una estimacin de los parmetros desconocidos a travs de un modelo de regresin lineal de
( ) ln y con respecto a x , un clculo que no requiere procedimientos de optimizacin iterativa. De todas
formas, la linealizacin debe usarse con cuidado ya que la influencia de los datos en el modelo cambia, as
como la estructura del error del modelo y la interpretacin e inferencia de los resultados, cosa que puede
ser un inconvenientes.
Hay que distinguir entre la "linealizacin" usada en los prrafos anteriores y la "linealizacin local" que se
adopta para algoritmos clsicos como el de Gauss-Newton.
6. Mnimos cuadrados ordinarios y ponderados
Se considera la mejor curva de ajuste aquella que minimiza la suma de las desviaciones (residuales) al
cuadrado (SRC). Esta es la aproximacin por el mtodo de mnimos cuadrados (MMC). Sin embargo, en
aquellos casos donde se tienen diferentes varianzas de error para diferentes errores, es necesario
minimizar la suma de los residuales al cuadrado ponderados (SRCP) (mtodo de mnimos cuadrados
ponderados). En la practica, la varianza puede depender del valor promedio ajustado. As que las
ponderaciones son recalculadas para cada iteracin en un algoritmo de mnimos cuadrados ponderados
iterativo.
En general, no hay una expresin de forma cerrada para los parmetros de mejor ajuste, como sucede en el
caso de la regresin lineal. Mtodos numricos de optimizacin son aplicados con el fin de determinar los
parmetros de mejor ajuste. Otra vez, en contraste con la regresin lineal, podra haber varios mximos
locales de la funcin a ser optimizada. En la prctica se suponen algunos valores iniciales los cuales junto
con el algoritmo de optimizacin conducen a encontrar el mximo global.
7. Estimacin de los parmetros con el mtodo Monte Carlo
Si el error de cada observacin es conocido, entonces la precisin y confiabilidad de los parmetros puede
ser estimada mediante simulacin Monte Carlo. Cada observacin es aleatorizada de acuerdo a su media y
su desviacin estndar. Con el nuevo conjunto de datos, una nueva curva es ajustada y las estimaciones de
los parmetros registradas. Las observaciones son entonces aleatorizadas y nuevos valores de los
parmetros son obtenidos. Al final, se generan varios conjuntos de parmetros y pueden ser calculadas la
media y desviacin tpica.
8. Algoritmo de GaussNewton
En matemticas, el algoritmo de GaussNewton se utiliza para resolver problemas no lineales de mnimos
cuadrados. Es una modificacin debida a CF Gauss del mtodo de optimizacin de Newton que no usa
segundas derivadas.
6
8.1. El problema
Dadas m funciones
1 2
, , ,
m
f f f de n parmetros
1 2
, , ,
n
p p p con m n , se desea minimizar la
suma:
( ) ( ) ( )
2
1
n
i
i
S p f p
=
=

donde p se refiere al vector
( )
1 2
, , ,
n
p p p .
8.2. El algoritmo
El algoritmo de GaussNewton es un procedimiento iterativo. Esto significa que se debe proporcionar una
estimacin inicial del parmetro vector denominado
0
p .
Estimaciones posteriores
k
p para el vector parmetro son producidas por la relacin recurrente:
( ) ( ) ( ) ( )
1
1 k k k k k k
f f f
p p J p J p J p f p

+
| |
=
|
\ .
donde
( )
1 2
, , ,
m
f f f f = y ( )
f
J p es el Jacobiano de f en p (ntese que no es necesario que
f
J sea cuadrada).
En la prctica nunca se computa explcitamente la matriz inversa, en su lugar se utiliza:
1 k k k
p p
+
= +
y se computa la actualizacin de
k
resolviendo el sistema lineal:
( ) ( ) ( ) ( )
k k k k k
f f f
J p J p J p f p

=
Una buena implementacin del algoritmo de Gauss-Newton utiliza tambin un algoritmo de bsqueda lineal:
en lugar de la frmula anterior para
1 k
p
+
, se utiliza:
1 k k k k
p p
+
= +
donde
k
es de algn modo un nmero ptimo.
8.3. Otros algoritmos
La relacin de recurrencia del mtodo de Newton para minimizar la funcin S es:
( )( ) ( ) ( )
1
1 k k k k
S
p p H S p J p

+
=
donde
S
J y ( ) H S son respectivamente el Jacobiano y Hessiano de S .
Utilizando el mtodo de Newton para la funcin:
( ) ( ) ( )
2
1
m
i
i
S p f p
=
=

se obtiene la relacin recurrente:
( ) ( ) ( ) ( )( ) ( ) ( )
1
1
1
m
k k
f f i i f
i
p p J p J p f p H f p J p f p

+
=
| |

= +
|
\ .

7
Se puede concluir que el mtodo de GaussNewton es el mismo que el mtodo de Newton ignorando el
trmino ( ) f H f

.
Otros algoritmos utilizados para resolver el problema de los mnimos cuadrados incluyen el algoritmo de
LevenbergMarquardt y el de descenso de gradiente
9. Regresin no lineal
Supngase que al representar grficamente la correspondiente la distribucin bidimensional, se obtiene la
figura 1c. Se observa una clara relacin entre las dos variables, pero claramente no lineal. Por tanto, deber
buscar la funcin que ha de describir la dependencia entre las dos variables.
Estas notas se limitarn al estudio de las ms utilizadas: las funciones parablica, hiperblica, logartmica,
exponencial y potencial.
9.1. Parbola de regresin
Figura 3.
En muchos casos, es una funcin de segundo grado la que se ajusta lo suficiente a la situacin real dada.
La expresin general de un polinomio de segundo grado es:
2
Y a b X c X = + +
donde a , b y c son los parmetros.
El problema consiste, por tanto, en determinar dichos parmetros para una distribucin dada. Se seguir
para ello, un razonamiento similar al que se hace en el caso del modelo de regresin lineal simple,
utilizando el procedimiento de ajuste de los mnimos cuadrados, es decir, haciendo que la suma de los
cuadrados de las desviaciones con respecto a la curva de regresin sea mnima:
( )
2
*
1
n
i i
i
D y y
=
=

donde
i
y son los valores observados de la variable dependiente, y
*
i
y son los valores estimados segn el modelo;
Por tanto, D

se puede escribir de la forma:
( ) ( )
2 2
*
1 1
n n
i i i
i i
D y y y a b c
= =
= =

2
i i
x x
Para encontrar los valores de a , b y c que hacen mnima la expresin anterior, se igualarn las derivadas
parciales de D con respecto a dichos parmetros a cero y se resolver el sistema resultante. Las
ecuaciones que forman dicho sistema se conocen, igual que en el caso de la regresin lineal simple, como
ecuaciones normales de Gauss.
8
2
1 1 1
2 3
1 1 1 1
2 2 3 4
1 1 1 1
n n n
i i i
i i i
n n n n
i i i i i
i i i i
n n n n
i i i i i
i i i i
y na b x c x
x y a x b x c x
x y a x b x c x
= = =
= = = =
= = = =
= + +
= + +
= + +



9.2. Regresin hiperblica
Cuando la dependencia entre las variables X e Y es de forma hiperblica, interesa ajustar a la nube de
puntos una funcin del tipo:
b
y a
x
= +
La funcin a minimizar ser:
( )
2
2
,
, 1 , 1

n n
i j j
i j i j
M d y y
= =
= =

donde
i
i
b
y a
x
= +
por tanto,
2
, 1
n
j
i j
i
b
M a y
x
=
| |
= +
|
|
\ .

Para minimizar la expresin, se calculan las derivadas parciales respecto a los parmetros a y b ,
igualando a cero:
, 1
, 1
2 0
1
2 0
n
j
i j
i
n
j
i j
i i
M b
a y
a x
M b
a y
b x x
=
=
| |

= + = |
|

\ .

| || |

= + =
| |

| |

\ .\ .

En consecuencia, las ecuaciones normales sern:


, 1 1 1
2
1 1 , 1
, 1
1
0
1 1
1
0
n n n
j j
i j i j i i
n n n
n
j
j
i i i j
i i i
i j
i i
b
a y a N b y
x x
y
b
a b
a y
x x x
x x
= = =
= = =
=
| |
(
+ = + = |
(
|

\ .
(

`
(
| || |

+ = (
+ =
| |

| |
(

\ .\ . )

9.3. Funcin exponencial, potencial, y logartmica


El problema de ajustar un modelo potencial, de la forma
b
Y A X = y uno exponencial
X
Y A B = se
reduce al de la funcin lineal, con solo tomar logaritmos.
9

Figura 4.
Modelo potencial
Si en la expresin de la funcin potencial se toman logaritmos, se obtiene:
log log log Y A b X = +
que es la ecuacin de una recta Y a b X = + , donde ahora log a A = . El problema se reduce a transformar
Y en logY y X en log X y ajustar una recta a los valores transformados. El parmetro b del modelo
potencial coincide con el coeficiente de regresin de la recta ajustada a los datos transformados y A se
obtiene mediante ( ) antilog a .
Modelo exponencial
En determinados experimentos, en su mayora biolgicos, la dependencia entre las variables X e Y es de
forma exponencial, en cuyo caso interesa ajustar a la nube de puntos una funcin del tipo:
( ) exp y a b x = + . Mediante una transformacin lineal, tomando logaritmos neperianos, se convierte el
problema en una cuestin de regresin lineal. Es decir, tomando logaritmos neperianos:
ln y a b x = +
Y llamando ln Y y = se tiene Y a b x = + (regresin lineal).
Para simplificar, descartando multiplicidades y suponiendo que cada par se repite una sola vez, las
ecuaciones normales sern:
1 1
2
1 1 1
ln
ln
n n
i i
i i
n n n
i i i i
i i i
a N b x y
a x b x x y
= =
= = =

+ =

+ =



Calculando los parmetros a y b se tiene la ecuacin de la funcin exponencial: ( ) exp y a b x = + .
10
Modelo logartmico
Figura 5.
La curva logartmica log Y a b X = + es tambin una recta, pero en lugar de estar referida a las variables
originales X e Y , est referida a log X y a Y .
10. Ejemplos de regresin no lineal
10.1. Ajuste de una funcin parablica: Y
*
= a + b X + c X
2
X Y X
2
X
3
X
4
XY X
2
Y Y
*
e=Y-Y
*
e
2
1 1,25 1 1 1 1,25 1,25 1,18 0,07 0,0049
2 5 4 8 16 10 20 5,11 -0,11 0,0121
3 11,25 9 27 81 33,75 101,5 11,32 -0,07 0,0049
4 20 16 64 256 80 320 19,81 0,19 0,0361
5 30,5 25 125 625 152,5 762,5 30,58 -0,08 0,0064

15 68 55 225 979 277,5 1205 68 0 0,0644


1/5 3 13,6 11 55,5 13,6 0 0,0128
Aplicando el mtodo de los mnimos cuadrados se obtiene el siguiente sistema de ecuaciones:
2
1 1 1
2 3
1 1 1 1
2 2 3 4
1 1 1 1
68 5 15 55
277, 5 15 55 225
1205 55 225 979
n n n
i i i
n n n n
i i i i
n n n n
i i i i
Y N a b X c X
a b c
X Y a X b X c X a b c
a b c
X Y a X b X c X
= = =
= = = =
= = = =

= + +

= + +


= + + = + +
` `

= + +
)

= + +

)



Resolviendo este sistema se obtiene:
* 2
0, 47
0, 51
1,14
0, 47 0, 51 1,14
a
b
c
Y X X
=
=
=
= + +
11
Bondad del ajuste
Coeficiente de determinacin:
*
2
2
2
2 2
0, 01288
1 1 0, 9998
111, 715
Y e
Y Y
S
S
R
S S
= = = =
2
1 2
2
0, 01288
N
i
e
e
S ECM
N
=
= = =

10.2. Ajuste de una funcin potencial: Y


*
= a X
b
Linealizando:
* *
ln ln ln Y a b X V A bU = + = +
X Y
U=lnX
V=lnY U
2
UV Y
*
e=Y-Y
*
e
2
1 1,25 0 0,2231 0 0 1,2557 -0,0057 0,0000
2 5 0,6931 1,6094 0,4803 1,1156 4,9888 0,0112 0,0001
3 11,25 1,0986 2,4203 1,2069 2,6590 11,18 0,0697 0,0049
4 20 1,3863 2,9957 1,9215 4,1530 19,82 0,1799 0,0324
5 30,5 1,6094 3,4177 2,5901 5,5006 30,901 -0,4012 0,1610
15 68 4,7875 10,666 6,1988 13,428 68,146 -0,1461 0,1984
1/5 3 13,6 0,9575 2,1332 1,2397 2,6856 13,629
-0,0292
0,0397
0 e

1
2 2
2 2
1
1
5
2, 6856 0, 9575 2,1332
1, 9902
1, 2397 0, 9575
1
5
n
UV i
n
U
i
UV UV
S
b
S
U U
=
=


= = = =

2,1332 1, 9902 0, 9575 0, 2277 A V bU = = =


Se deshace el cambio efectuado:
ln ln 0, 2277 1, 2557 a anti A anti = = =
De modo que el ajuste efectuado es:
* 1,9902
1, 2557 Y X =
Bondad del ajuste
2
1
3
0, 0397
N
i
i
e
ECM
N
=
= =

Ntese que al haber transformado la variable dependiente ya no se minimiza


2
e

sino
( )
2
*
ln ln Y Y

de ah que 0 e

.
12
10.3. Ajuste de una funcin exponencial: Y
*
= a b
X
Linealizando:
* *
ln ln ln Y a X b V A B X = + = +
X Y
V=lnY
X
2
XV Y
*
e=Y-Y
*
e
2
1 1,25 0,2231 1 0,2231 1,7794 -0,529 0,2798
2 5 1,6094 4 3,2188 3,86 1,138 1,2950
3 11,25 2,4203 9 7,2609 8,37 2,88 8,2944
4 20 2,9957 16 11,983 18,18 1,82 3,3124
5 30,5 3,4177 25 17,088 39,45 -8,95 80,102
15 68 10,666 55 39,774 71,64 -3,641 95,803
1/5 3 13,6 2,1332 11 7,9548 14,328 -0,728 19,16
0 e

1
2 2
2 2
1
1
5
7, 9548 2,1332 3
0, 7776
11 3
1
5
n
XV i
n
X
i
X V X V
S
B
S
X X
=
=


= = = =

2,1332 0, 7776 3 0,1996 A V b X = = =


Deshaciendo los cambios efectuados:
ln ln 0,1996 0, 819
ln ln 0, 7776 2,176
a anti A anti
b anti B anti
= = =
= = =
Por lo que el ajuste efectuado es:
*
0, 819 2,176
X
Y =
Bondad del ajuste
2
1
4
19,16
N
i
i
e
ECM
N
=
= =

La comparacin de la bondad de modelos de regresin mediante el coeficiente de determinacin slo es


correcta cuando la variable dependiente no ha sido sometida a transformaciones no lineales (por ejemplo,
una transformacin logartmica). En este ejercicio, mediante
2
R slo se puede comparar la regresin lineal
y la parablica. Por eso, para comparar los cuatro ajustes efectuados se utiliza el error cuadrtico medio
(ECM). El mejor ajuste resulta ser el parablico puesto que presenta el menor valor para el ECM.
11. Relacin no lineal y no linealizable
Se ha visto que los modelos lineales son tiles en muchas situaciones y aunque la relacin entre la variable
respuesta y las variables regresoras no sea lineal, en muchos casos la relacin es linealizable en el
sentido de que transformando (logaritmos, inversa,...) la variable respuesta y/o algunas variables regresoras
la relacin es lineal. Sin embargo, existen situaciones en que la relacin no es lineal y tampoco es
linealizable. Por ejemplo, si el modelo de regresin es el siguiente:
( )
2
1 2 3
exp
i i i i
y x x = + +
13
la funcin de regresin ( )
( )
2
1 2 3
, exp m x x x = +

no es lineal ni se puede transformar en


lineal, sera un modelo de regresin no lineal. La forma general de estos modelos es:
( )
,
i i i
y m x = +

donde m es una funcin que depende de un vector de parmetros

que es necesario estimar;


i
son los errores que se supone que verifican las mismas hiptesis que el modelo lineal.
El estudio de los modelos de regresin no lineal es muy extenso y complejo sobre el que existe una amplia
literatura sobre el tema. Textos de referencia son los de Bates y Watts (1988) y Seber y Wild (1989).
La estimacin del vector de parmetros

se realiza por el mtodo de mnimos cuadrados. Esto es, se


calcula el

que minimiza la funcin de la suma de residuos al cuadrado:


( ) ( ) ( )
2
1
,
n
i i
i
y m x
=
=


El algoritmo para minimizar esta funcin es un procedimiento iterativo que se basa en el mtodo de Gauss
Newton o en algoritmos ms complejos como el algoritmo de LevenbergMarquard. Para aplicar estos
procedimientos se parte de unos valores iniciales
0

que permiten iniciar el algoritmo iterativo y en cada


etapa i se obtiene un nuevo estimador
( )
i

hasta obtener la convergencia segn un criterio de parada


predifinido.
Ejemplo 1
Se ha diseado un experimento para estudiar la resistencia de un material plstico que es sometido a un
proceso de calentamiento constante durante un perodo de tiempo. Para ello se han realizado pruebas en
las que se ha sometido al material a una temperatura T constante durante t perodos de tiempo
predeterminados. A continuacin se somete el material a unas pruebas de resistencia que se miden segn
la variable Y . Los resultados de estas pruebas son los de la tabla adjunta.
t Y t Y t Y
8 0
'
49
0
'
49
20 0
'
42
0
'
42
0
'
43
32 0
'
41
0
'
40
10 0
'
48
0
'
47
0
'
48
0
'
47
22 0
'
41
0
'
41
0
'
40
34 0
'
40
12 0
'
46
0
'
46
0
'
45
0
'
43
24 0
'
42
0
'
40
0
'
40
36 0
'
41
0
'
38
14 0
'
45
0
'
43
0
'
43
26 0
'
41
0
'
40
0
'
41
38 0
'
40
0
'
40
16 0
'
44
0
'
43
0
'
43
28 0
'
41
0
'
40
40 0
'
39
18 0
'
46
0
'
45
30 0
'
40
0
'
40
0
'
38
42 0
'
39
14
Se desea estudiar la relacin de la variable resistencia Y en relacin con la variable explicativa tiempo T .
A la vista del grfico de las observaciones y por estudios realizados anteriormente se supone que la funcin
de regresin es de la forma:
( ) ( ) ( ) ( )
1 1 2
0, 49 exp 8 m t t = +
Para estimar este modelo de regresin se ha Utilizando el algoritmo iterativo indicado, obtenindose el
modelo de regresin en catorce iteraciones. En la iteracin inicial se utilizaron los valores
1
0, 20 = y
2
0, 30 = . Los resultados de las iteraciones se resumen en la tabla adjunta
iteracin
1

2
e

iteracin
1

2
e

0 0,200 0,300 1,574 7 0,412 0,152 0,009


1 0,347 0,282 0,155 8 0,395 0,131 0,006
2 0,445 0,532 0,050 9 0,393 0,107 0,005
3 0,403 0,359 0,019 10 0,392 0,106 0,005
4 0,411 0,368 0,016 11 0,390 0,101 0,005
5 0,413 0,347 0,015 12 0,390 0,102 0,005
6 0,415 0,203 0,011 13 0,390 0,101 0,005
14 0,390 0,101 0,005
El modelo ajustado es:
( ) ( ) ( )
0, 39 0,10exp 0,101 8 m t t = +
el coeficiente de determinacin,
2
0,873 R = , es muy alto e indica buen ajuste.
En la figura 6a se representa la nube muestral y la curva ajustada. Se observa que el ajuste es
razonablemente bueno. En la figura 6b se presenta el grfico de residuos frente a predicciones en el que no
se observa ningn problema.
Figura 6. (a) Nube de puntos y curva ajustada. (b) Diagrama de residuos.
15
12. Bibliografa
1. Dette H., Melas VB, Pepelyshev A. Optimal designs for a class of nonlinear regression models. Ann Stats
2004, 32: 214267.
2. Yong Xu, Jong-Yu Yang, Jian-Feng Lu. An efficient kernel-based nonlinear regression method for tuo-
class classification. Proceedings of the 4th International Conference on Machine Learning and Cybernetics,
Guangzhou, 2005.
3. Huet S, Bouvier A, Poursat MA, Jolivet E. Statistical tools for nonlinear regression A practical guide with S-
Plus and R. Examples. Springer Verlag, 2003.
4. Baran S. A consistent estimator for nonlinear regression models. Metrika 2005: 62: 1-15.
5. Mirta B. Confidence regions and intervals in nonlinear regresin. Math Comm 1997, 2: 71-6.
6. Matyska L, Kovai J. Comparison of several non-linear-regression methods for fitting the Michaelis-Menten
equation. Biochem J, 1985: 231; 171-7.
7. Motulsky H, Brown RE. Detecting outliers when fitting data with nonlinear regression a new method
based on robust nonlinear regression and the false discovery rate. BMC Bioinformatics 2006, 7:123.
8. Bielecki A,. Podolak IT, Bielecka M. A Neuronal algorithm of nonlinear regression. Schedae Informaticae
2004; 13: 65-81.
9. Motulsky HJ, Christopoulos A. Fitting models to biological data using linear and nonlinear regression. A
practical guide to curve fitting. San Diego CA: GraphPad Software, 2003. www.graphpad.com.
10. Vidaurre G, Vasquez V R, Wallace B. Whiting robustness of nonlinear regression methods under
uncertainty: applications in chemical kinetics models Ind Eng Chem Res, 2004: 43;1395-404.
11. Peddada SD, Haseman JK. Analysis of nonlinear regression models: a cautionary note. Dose-Response
2005; 3: 34252.
12. Seber GA, Wild CJ. Nonlinear regression. New York: Wiley, 1989.
13- Bethea RM, Duran BS, Boullion TL. Statistical methods for engineers and scientists. New York: Dekker,
1985.
14. Motulsky HJ, Ransnas LA. Fitting curves to data using nonlinear regression. FASEB J, 1987: 1;365-74.
15. McIntosh JEA, McIntosh RP. Mathematical modelling and computers in endocrinology. Berlin: Springer,
1980; 71.
16. eio.usc.es/eipc1/MATERIALES/311121873.pdf
17. www.monografias.com/trabajos26/estadistica-inferencial/estadistica inferencial.shtml
18. www.terra.es/personal/joseantm/Archiv%20pdf/96zoomc
19. www.eui.upm.es/~plpuche/estadistica/2007%20 %202008/Tema%201/regrealumnos
20. /www.unoweb-s.uji.es/A22/lista0/theList/TEMA%204.doc
21. www.uam.es/personal_pdi/economicas/arantxa/No_linealidad.pdf
22. www.ugr.es/~rruizb/cognosfera/sala_de_estudio/estadistica/regresion.ppt
23. 155.210.58.160/asignaturas/15909/ficheros/Tema6_notas4.pdf
24. www.ugr.es/~ramongs/sociologia/regresionlogistica.pdf
25. webs.um.es/mhcifre/apuntes/practicas_minitab.pdf
26. www.uv.es/~yague/docencia/regresion.doc
27. personal.us.es/jgam/API2005/2005_5_5.doc
28. biplot.usal.es/ALUMNOS/BIOLOGIA/5BIOLOGIA/Regresionsimple.pdf
29. www.stat.ufl.edu/~winner/sta6934/lognlreg.ppt
30. hadm.sph.sc.edu/COURSES/J716/pdf/716-5%20Non linear%20regression.pdf
31. www.uv.es/ceaces/base/regresion/REGRESIN.HTM

También podría gustarte