Está en la página 1de 9

5.

3 REGRESION NO LINEAL
En estadstica, la regresin no lineal es un problema de inferencia para un modelo tipo: y = f(x ,) + Basado en datos multidimensionales x, y, donde f es alguna funcin no lineal respecto a algunos parmetros desconocidos . Como mnimo, se pretende obtener los valores de los parmetros asociados con la mejor curva de ajuste (habitualmente, con el mtodo de los mnimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadstica tales como intervalos de confianza para los parmetros as como pruebas de bondad de ajuste. El objetivo de la regresin no lineal se puede clarificar al considerar el caso de la regresin polinomial, la cual es mejor no tratar como un caso de regresin no lineal. Cuando la funcin f toma la forma: f(x) = ax2 + bx + c La funcin f es no lineal en funcin de x pero lineal en funcin de los parmetros desconocidos a, b, yc. Este es el sentido del trmino "lineal" en el contexto de la regresin estadstica. Los procedimientos computacionales para la regresin polinomial son procedimientos de regresin lineal (mltiple), en este caso con dos variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresin no lineal es necesaria para ajustar polinomios. Las consecuencias prcticas de esta mala interpretacin conducen a que un procedimiento de optimizacin no lineal sea usado cuando en realidad hay una solucin disponible en trminos de regresin lineal. Paquetes (software) estadsticos consideran, por lo general, ms alternativas de regresin lineal que de regresin no lineal en sus procedimientos.

Linealizacin Algunos problemas de regresin no lineal pueden linealizarse mediante una transformacin en la formulacin del modelo. Por ejemplo, consideremos el problema de regresin no lineal (ignorando el trmino de error):

Aplicando logaritmos a ambos lados de la ecuacin, se obtiene:

Lo cual sugiere una estimacin de los parmetros desconocidos a travs de un modelo de regresin lineal de ln(y) con respecto a x, un calculo que no requiere procedimientos de optimizacin iterativa. De todas formas, la linealizacin debe usarse con cuidado ya que la influencia de los datos en el modelo cambia, as como la estructura del error del modelo y la interpretacin e inferencia de los resultados. Estos pueden ser resultados no muy convenientes. Hay que distinguir entre la "linealizacin" usada en los prrafos anteriores y la "linealizacin local" que se adopta para algoritmos clsicos como el de Gauss-Newton. De igual forma, la metodologa de modelos lineales generalizados no use linealizacin para la estimacin de parmetros.

Mnimos cuadrados ordinarios y ponderados La mejor curva de ajuste se considera como aquella que minimiza la suma de las desviaciones (residuales) al cuadrado (SRC). Este es la aproximacin por el mtodo de mnimos cuadrados (MMC). Sin embargo, en aquellos casos donde se tienen diferentes varianzas de error para diferentes errores, es necesario minimizar la suma de los residuales al cuadrado ponderados (SRCP) (mtodo de mnimos cuadrados ponderados). En la prctica, la varianza puede depender del valor promedio ajustado. As que los pesos son recalculados para cada iteracin en un algoritmo de mnimos cuadrados ponderados iterativo. En general, no hay una expresin de forma cerrada para los parmetros de mejor ajuste, como sucede en el caso de la regresin lineal. Mtodos numricos de optimizacin son aplicados con el fin de determinar los parmetros de mejor ajuste. Otra vez, en contraste con la regresin lineal, podra haber varios mximos locales de la funcin a ser optimizada. En la prctica, se suponen algunos valores iniciales los cuales junto con el algoritmo de optimizacin conducen a encontrar el mximo global. Estimacin de los parmetros usando Mtodos de Montecarlo Si el error de cada observacin es conocido, entonces la precisin y confiabilidad de los parmetros puede ser estimada mediante simulacin de Montecarlo. Cada observacin es aleatorizada de acuerdo a su media y su desviacin estndar. Con el nuevo conjunto de datos, una nueva curva es ajustada y las estimaciones de los parmetros registradas. Las observaciones son entonces aleatorizadas y nuevos valores de los parmetros son obtenidos. Al final, varios conjuntos de parmetros son generados y su media y desviacin estndar pueden ser calculados.1 2 Software Diversos lenguajes de programacin y software estadstico y matemtico contienen funciones de optimizacin. Entre ellos, Gauss, GNU Octave, Matlab, Mathematica, R, Splus; C++ y Fortran maple.

Mtodos Numricos para Regresiones No Lineales


Regresin Exponencial En determinados experimentos, en su mayora biolgicos, la dependencia entre las variables X e Y es de forma exponencial, en cuyo caso interesa ajustar a la nube de puntos una funcin del tipo:

Mediante una transformacin lineal, tomando logaritmos neperianos, se convierte el problema en una cuestin de regresin lineal. Es decir, tomando logaritmos neperianos:

Ejemplo x y In y x2 x Iny In y2

1,0986

1,0986

1,2069

1,2

3,4

1,2237

1,44

1,4684

1,4974

1,5

1,6094

2,25

2,4141

2,5901

0,6931

1,3862

0,4803

4,1

1,4109

4,2327

1,9906

3,7

1,6094

13,69

5,9547

2,5901

1,9459

16

7,7836

3,7865

4,5

6,5

1,8718

20,25

8,4231

3,5056

20,9

36

11,4628

67,63

32,7614

17,6455

Numero de datos = n = 8

X promedio =

= 2,6125

Y promedio =

= 1,43285

Usando la forma lineal de la Regresin Exponencial:

b=

= 0,216047

a=

= 1,43285 - (0,216047)(2,6125) = 0,84272

a = eb = e0,216047 = 2,8597

La ecuacin final que modela el sistema es

Regresin Logartmica La curva logartmica referida a las variables originales e es tambin una recta, pero en lugar de estar , est referida a Ejemplo x y ln x ln x2 ln x * y y2 ya

1.2

3.4

0.1823

0.0332

0.6198

11.56

1.5

0.4054

0.1643

2.027

25

0.6931

0.4803

1.3862

4.1

1.0986

1.2069

4.5042

16.81

3.7

1.3083

1.7116

6.5415

25

1.3862

1.9215

9.7034

49

4.5

6.5

1.5040

2.2620

9.776

42.25

20.9

36

6.5779

7.7798

34.5581

182.62

a=

= 2.090513

b=

= 4.5 - (2.090513)(0.8222) = 2.78117

La ecuacin final que modela el sistema es

Regresin Polinomial Algunas veces cuando la relacin entre las variables dependientes e independientes es no lineal, es til incluir trminos polinomiales para ayudar a explicar la variacin de nuestra variable dependiente. Las regresiones polinomiales se pueden ajustar la variable independiente con varios trminos.

Ejemplo x y xy x2 y2 x2 y x3 x4

1.2

3.4

4.08

1.44

11.56

4.896

1.728

2.0736

1.5

7.5

2.25

25

11.25

3.375

5.0625

16

4.1

12.3

16.81

36.9

27

81

3.7

18.5

13.69

25

68.45

50.653

187.4161

28

16

49

112

64

256

4.5

6.5

29.25

20.25

42.25

131.625

91.125

410.0625

20.9 36 106.63 67.63 182.62 376.121 246.881 958.6147

Usando una Matriz para calcular valores de los coeficientes

Usando el mtodo de Eliminacin de Gauss-Jordan:

La ecuacin final que modela el sistema es:

También podría gustarte