Está en la página 1de 3

MÉTODOS NUMÉRICOS

Tema REGRESIÓN LINEAL

MARCO TEÓRICO

REGRESIÓN LINEAL

El ejemplo más simple de una aproximación por mínimos cuadrados es ajutar una línea
recta a un conjunto de observaciones definidas por puntos: (x1, y1), (x2, y2),…, (xn, yn).
La expresión matemática para la línea recta es

y=a0 +a1 x+ e

dondea 0 y a 1 son coeficientes que representan la intersección con el eje y y la pendiente,


respectivamente, e es el error, o diferencia, entre el modelo y las observaciones, el
cual se representa al reordenar la ecuación

e= y −a0 −a1 x
Una estrategia para ajustar una “mejor” línea a través de los datos será minimizar la
suma de los errores residuales de todos los datos disponibles, como sigue:
n n

∑ ei=∑ ( y−a0−a 1 x ) donde n=número total de puntos.


i=1 i=1

La estrategia que supera las deficiencias de los procedimientos consiste en minimizar la suma de los
cuadrados de los residuos entre la y medida y la y calculada con el modelo lineal
n n
St=∑ e 21=∑ ¿ ¿ ¿
i=1 i=1
Para determinar los valores de a0 y a1, la ecuación se deriva con respecto a cada uno de los coeficientes:
∂ Sr
=−2 ∑ ¿ ¿
∂ ao

∂ Sr
=−2 ∑ [ ( y −a0−a1 x ) x i ]
∂ a1
Al igualar estas derivadas a cero, se dará como resultado un Sr mínimo. Si se hace esto, las ecuaciones se
expresan como
0=∑ y i−∑ ao−¿ ∑ a1 x ¿
0=∑ y i x i−∑ ao x i−¿ ∑ a1 x 2 ¿
Ahora, si observamos que∑ a0 = na0, expresamos las ecuaciones como un conjunto de
dos ecuaciones lineales simultáneas, con dos incógnitas (a0 y a1):
Éstas se llaman ecuaciones normales, y se resuelven en forma simultánea
n ∑ X i Y i −∑ X i ∑ Y i
a 1= 2
n ∑ ( X i )2 − ( ∑ X i )
Este resultado se utiliza conjuntamente con la ecuación
a 0=Y i−a1 X i
donde ý y x́ son las medias de y y x, respectivamente.
MÉTODOS NUMÉRICOS

Cuantificación del error en la regresión lineal


La desviación estándar es el error estándar del estimado
St
Sy=
√ n−1 Sy /x =
√ Sr
n−2
Si sy/x < sy, el modelo de regresión lineal es adecuado. La mejora se puede cuantificar
mediante

St−Sr
r 2=
St

REGRESIÓN POLINOMIAL

Como se analizó en la sección anterior, un método para lograr este objetivo es utilizar transformaciones.
Otra alternativa es ajustar polinomios a los datos mediante regresión polinomial. El procedimiento de
mínimos cuadrados se puede extender fácilmente al ajuste de
datos con un polinomio de grado superior. Por ejemplo, suponga que ajustamos un polinomio
de segundo grado o cuadrático:
y=a0 +a1 x+ a2 x 2 +e
En este caso, la suma de los cuadrados de los residuos es
n

∑ ¿¿
i=1
Al seguir el procedimiento de la sección anterior, obtenemos la derivada de la ecuación
con respecto a cada uno de los coeficientes desconocidos del polinomio
∂ Sr
=−2 ∑ ¿ ¿ ¿
∂ ao

∂ Sr
=−2 ∑ x i ¿ ¿ ¿
∂ a1

∂ Sr 2
=−2 ∑ x i ¿ ¿ ¿
∂ a2

Estas ecuaciones se igualan a cero y se reordenan para desarrollar el siguiente conjunto


de ecuaciones normales:

donde todas las sumatorias van desde i = 1 hasta n. Observe que las tres ecuaciones anteriores son lineales
y tienen tres incógnitas: a0, a1 y a2. Los coeficientes de las incógnitas se evalúan de manera directa, a partir
de los datos observados.
En este caso, el error estándar se formula como sigue:
Sy Sr
x
=

n−(m+ 2)

CONCLUSIONES
MÉTODOS NUMÉRICOS

REFERENCIAS
(s.f.).
Aranda, D. F. (s.f.). Introduccion a los metodos numericos: software en basic y aplicaciones en
hidrologia superficial. UASLP.
Barbero, A. C. (2005). Metodos Numericos con Matlab. Madrid: Universidad Politecnica de
Valencia.
Barbero, A. C. (2006). Problemas resueltos de metodos numericos. PARANINFO.

También podría gustarte