Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3 REGRESION NO LINEAL
En estadstica, la regresin no lineal es un problema de inferencia para un modelo tipo: y = f(x ,) + Basado en datos multidimensionales x, y, donde f es alguna funcin no lineal respecto a algunos parmetros desconocidos . Como mnimo, se pretende obtener los valores de los parmetros asociados con la mejor curva de ajuste (habitualmente, con el mtodo de los mnimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadstica tales como intervalos de confianza para los parmetros as como pruebas de bondad de ajuste. El objetivo de la regresin no lineal se puede clarificar al considerar el caso de la regresin polinomial, la cual es mejor no tratar como un caso de regresin no lineal. Cuando la funcin f toma la forma: f(x) = ax2 + bx + c La funcin f es no lineal en funcin de x pero lineal en funcin de los parmetros desconocidos a, b, yc. Este es el sentido del trmino "lineal" en el contexto de la regresin estadstica. Los procedimientos computacionales para la regresin polinomial son procedimientos de regresin lineal (mltiple), en este caso con dos variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresin no lineal es necesaria para ajustar polinomios. Las consecuencias prcticas de esta mala interpretacin conducen a que un procedimiento de optimizacin no lineal sea usado cuando en realidad hay una solucin disponible en trminos de regresin lineal. Paquetes (software) estadsticos consideran, por lo general, ms alternativas de regresin lineal que de regresin no lineal en sus procedimientos.
Linealizacin Algunos problemas de regresin no lineal pueden linealizarse mediante una transformacin en la formulacin del modelo. Por ejemplo, consideremos el problema de regresin no lineal (ignorando el trmino de error):
Lo cual sugiere una estimacin de los parmetros desconocidos a travs de un modelo de regresin lineal de ln(y) con respecto a x, un calculo que no requiere procedimientos de optimizacin iterativa. De todas formas, la linealizacin debe usarse con cuidado ya que la influencia de los datos en el modelo cambia, as como la estructura del error del modelo y la interpretacin e inferencia de los resultados. Estos pueden ser resultados no muy convenientes. Hay que distinguir entre la "linealizacin" usada en los prrafos anteriores y la "linealizacin local" que se adopta para algoritmos clsicos como el de Gauss-Newton. De igual forma, la metodologa de modelos lineales generalizados no use linealizacin para la estimacin de parmetros.
Mnimos cuadrados ordinarios y ponderados La mejor curva de ajuste se considera como aquella que minimiza la suma de las desviaciones (residuales) al cuadrado (SRC). Este es la aproximacin por el mtodo de mnimos cuadrados (MMC). Sin embargo, en aquellos casos donde se tienen diferentes varianzas de error para diferentes errores, es necesario minimizar la suma de los residuales al cuadrado ponderados (SRCP) (mtodo de mnimos cuadrados ponderados). En la prctica, la varianza puede depender del valor promedio ajustado. As que los pesos son recalculados para cada iteracin en un algoritmo de mnimos cuadrados ponderados iterativo. En general, no hay una expresin de forma cerrada para los parmetros de mejor ajuste, como sucede en el caso de la regresin lineal. Mtodos numricos de optimizacin son aplicados con el fin de determinar los parmetros de mejor ajuste. Otra vez, en contraste con la regresin lineal, podra haber varios mximos locales de la funcin a ser optimizada. En la prctica, se suponen algunos valores iniciales los cuales junto con el algoritmo de optimizacin conducen a encontrar el mximo global. Estimacin de los parmetros usando Mtodos de Montecarlo Si el error de cada observacin es conocido, entonces la precisin y confiabilidad de los parmetros puede ser estimada mediante simulacin de Montecarlo. Cada observacin es aleatorizada de acuerdo a su media y su desviacin estndar. Con el nuevo conjunto de datos, una nueva curva es ajustada y las estimaciones de los parmetros registradas. Las observaciones son entonces aleatorizadas y nuevos valores de los parmetros son obtenidos. Al final, varios conjuntos de parmetros son generados y su media y desviacin estndar pueden ser calculados.1 2 Software Diversos lenguajes de programacin y software estadstico y matemtico contienen funciones de optimizacin. Entre ellos, Gauss, GNU Octave, Matlab, Mathematica, R, Splus; C++ y Fortran maple.
Mediante una transformacin lineal, tomando logaritmos neperianos, se convierte el problema en una cuestin de regresin lineal. Es decir, tomando logaritmos neperianos:
Ejemplo x y In y x2 x Iny In y2
1,0986
1,0986
1,2069
1,2
3,4
1,2237
1,44
1,4684
1,4974
1,5
1,6094
2,25
2,4141
2,5901
0,6931
1,3862
0,4803
4,1
1,4109
4,2327
1,9906
3,7
1,6094
13,69
5,9547
2,5901
1,9459
16
7,7836
3,7865
4,5
6,5
1,8718
20,25
8,4231
3,5056
20,9
36
11,4628
67,63
32,7614
17,6455
Numero de datos = n = 8
X promedio =
= 2,6125
Y promedio =
= 1,43285
b=
= 0,216047
a=
a = eb = e0,216047 = 2,8597
Regresin Logartmica La curva logartmica referida a las variables originales e es tambin una recta, pero en lugar de estar , est referida a Ejemplo x y ln x ln x2 ln x * y y2 ya
1.2
3.4
0.1823
0.0332
0.6198
11.56
1.5
0.4054
0.1643
2.027
25
0.6931
0.4803
1.3862
4.1
1.0986
1.2069
4.5042
16.81
3.7
1.3083
1.7116
6.5415
25
1.3862
1.9215
9.7034
49
4.5
6.5
1.5040
2.2620
9.776
42.25
20.9
36
6.5779
7.7798
34.5581
182.62
a=
= 2.090513
b=
Regresin Polinomial Algunas veces cuando la relacin entre las variables dependientes e independientes es no lineal, es til incluir trminos polinomiales para ayudar a explicar la variacin de nuestra variable dependiente. Las regresiones polinomiales se pueden ajustar la variable independiente con varios trminos.
Ejemplo x y xy x2 y2 x2 y x3 x4
1.2
3.4
4.08
1.44
11.56
4.896
1.728
2.0736
1.5
7.5
2.25
25
11.25
3.375
5.0625
16
4.1
12.3
16.81
36.9
27
81
3.7
18.5
13.69
25
68.45
50.653
187.4161
28
16
49
112
64
256
4.5
6.5
29.25
20.25
42.25
131.625
91.125
410.0625