Está en la página 1de 26

Metodo de Mnimos Cuadrados

Universidad de San Carlos de Guatemala


Facultad de Ciencias Qumicas y Farmacia
Matematica V
Rony Jose Letona QQ 200960024
Jose Roy Morales QQ 200717695

INDICE

INDICE

Indice
1. Distancias 1
1.1. R (Recta Real) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. R
2
(Plano Cartesiano) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. R
3
(Espacio Tridimensional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Transformacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Vectores (Repaso) 5
2.1. Multiplicacion por una Constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Vector Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4. Producto Punto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3. Proyecciones 7
3.1. Proyeccion sobre una Recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2. Proyeccion sobre un Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3. Matriz de Proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4. Metodo de Mnimos Cuadrados 11
4.1. Caso de una Recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2. Generalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3. Resolucion Diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.4. Resolucion Algebraica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.5. Solucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5. Casos Especiales 22
5.1. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2. Logartmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6. Bibliografa 24
6.1. Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.2. Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.3. Herramientas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
0
1 DISTANCIAS
1. Distancias
Para comenzar la deduccion del metodo de mnimos cuadrados, es conveniente que se haga
un breve repaso sobre la forma en la que se miden distancias. Eso por esto que esta seccion
esta dedicada a ello.
1.1. R (Recta Real)
Figura 1: Recta real.
Para facilitar la comprension, se comienza con la Recta Real (ver Figura 1). En ella la medicion
de distancias es relativamente sencilla y casi intuitiva: se calcula la diferencia de distancias hacia
el origen. Notese que en el caso de los n umeros negativos, la distancia hay que tomarla en valor
absoluto. Es por esto que la formula general mas com un para la medicion de distancias en R es la
siguiente:
Sean A y B R. La distancia d entre A y B es entonces
d(A, B) = |B A| (1)
Esta forma de medir distancias en muy practica, pero no es la unica. Existen varias formas de
medir distancias, pero la que concierne al estudio del metodo de mnimos cuadrados es la que se
ve a continuacion.
Figura 2: Distancia entre puntos.
Considerando que el algebra al calcular con valores absolutos es relativamente complicada, la
forma utilizada para medir distancias en el metodo de mnimos cuadrados es distinta. Esta en
lugar de utilizar valores absolutos, eleva la expresion dentro del valor absoluto en la ecuacion (1)
al cuadrado. De alli su nombre: Metodo de Mnimos Cuadrados. Entonces, la formula general es la
siguiente:
Sean A y B R. La distancia d entre A y B es entonces
d(A, B) = (B A)
2
(2)
1
1.2 R
2
(Plano Cartesiano) 1 DISTANCIAS
1.2. R
2
(Plano Cartesiano)
Figura 3: Plano cartesiano.
En el caso del plano cartesiano, ya no se tiene una sino dos rectas reales unidas mediante un
Producto Cartesiano
1
. La ubicacion de cada punto esta dada por pares ordenados. En este caso la
forma que se utiliza para medir distancias es la que ya se conoce.
Sean A y B puntos en R
2
tal que A =
_
x
a
y
a
_
y B =
_
x
b
y
b
_
. La distancia d entre los dos
esta dada por
d(A, B) =
_
(x)
2
+ (y)
2
=
_
(x
b
x
a
)
2
+ (y
b
y
a
)
2
(3)
Como se puede notar, esto tiene mucha similitud con el teorema de Pitagoras. Esto es porque
la distancia entre un punto y el otro en R
2
es, de hecho, la hipotenusa de un triangulo rectangulo
(ver Figura 4). En este caso los dos catetos son la distancia entre la las coordenadas en x y la
distancia entre la las coordenadas en y.
Figura 4: Distancia entre puntos (Pitgoras).
En el caso del metodo de mnimos cuadrados, esto no se utilizara de forma obvia, pero se
recomienda tener en mente la forma de la medicion.
1
Tambien llamado Producto Cruz. Este surgi o en las formulaciones de Descartes sobre geometra analtica. El
plano cartesiano es un ejemplo: (R R).
2
1.3 R
3
(Espacio Tridimensional) 1 DISTANCIAS
1.3. R
3
(Espacio Tridimensional)
Figura 5: Espacio tridimensional.
Para complementar el repaso sobre las mediciones de distancia, se analizara un ultimo caso. R
3
se construye mediante el triple producto cartesiano de R, es decir (R R R). Son 3 rectas reales
que nos llevan a que la ubicacion de cada punto en el espacio este dada por una triada ordenada.
La forma para medir distancias en este caso es la siguiente:
Sean A y B puntos en R
3
tal que A =
_
_
x
a
y
a
z
a
_
_
y B =
_
_
x
b
y
b
z
b
_
_
. La distancia d entre los dos
esta dada por
d(A, B) =
_
(x)
2
+ (y)
2
+ (z)
2
=
_
(x
b
x
a
)
2
+ (y
b
y
a
)
2
+ (z
b
z
a
)
2
(4)
A esta distancia se le llama distancia Euclidiana. Notese que esta es semejante al teorema de
Pitagoras, sin embargo, no es lo mismo. Algo que si se debe de tomar en cuenta es que la distancia
en R
2
conserva la misma forma que en R
3
.
Figura 6: Distancia entre puntos (Distancia Euclidiana).
Esto se puede generalizar para todos los R
n
si se conserva la forma observada en R
2
y en R
3
.
3
1.4 Transformacion 1 DISTANCIAS
1.4. Transformacion
Figura 7: Gr acas de f(x) = x
2
y g(x) = |x| en R
2
.
Si se piensa por un momento que de la forma de medir distancias vista al principio (Ecuacion
1) y la siguiente (Ecuacion 2) no se obtiene el mismo resultado, se esta en lo cierto. Se puede argu-
mentar que a la primera forma se le fue aplicada una transformacion (elevacion al cuadrado) que
en cualquier momento puede ser revertida (raz cuadrada). La forma de la distancia transformada
no vara mucho de la forma de la distancia vista al principio (ver Figura 7). Es por esto que esta
trasnformacion es valida. Tambien se hace mucho enfasis en que la trasformacion se hace con el
n de facilitar los calculos que se llevaran a cabo posteriormente.
4
2 VECTORES (REPASO)
2. Vectores (Repaso)
En esta seccion se intentara denir las operaciones que se pueden realizar entre vectores en
R
2
. Por supuesto, todas estas se pueden extender a los vectores en R
n
. Solo se hara un repaso
de la multiplicacion por un escalar, suma, vector unitario y producto punto, ya que estas son las
pertinentes para la comprension de este documento.
2.1. Multiplicacion por una Constante
La multiplicacion de un vector por una constante se realiza multiplicando esta por cada com-
ponente del vector. Sea a un vector en el plano y c una constante real.
c a = c
_
a
x
a
y
_
=
_
c a
x
c a
y
_
(5)
Geometricamente, la constante solo cambia la norma del vector. Aunque si esta es negativa, la
direccion del vector se vuelve totalmente la opuesta a su direccion original.
2.2. Suma
La suma de vectores se lleva a cabo sumando componente por componente de cada vector.
Notese que la suma de vectores da como resultado otro vector. Sean a y b vectores en R
2
, entonces
a + b se calcula de la forma siguiente.
a +b =
_
a
x
a
y
_
+
_
b
x
b
y
_
=
_
a
x
+b
x
a
y
+b
y
_
=
_
c
x
c
y
_
= c (6)
La interpretacion geometrica de esto es el metodo llamado de punta con cola. Este consiste en
colocar un la cola de un vector en la punta del otro logrando as que entre los dos apunten a un
punto que sera el resultado. En la Figura 8 se ve que al sumar el vector A con el vector AB el
resultado es el vector B.
Figura 8: Suma de los vectores A y AB dando como resultado el vector B.
5
2.3 Vector Unitario 2 VECTORES (REPASO)
2.3. Vector Unitario
El vector unitario no es mas que un vector cuya norma es igual a 1. Para ello se toma un vector
y se lo divide por su norma. Tomese el ejemplo siguiente. Sea a un vector en R
2
. El vector unitario
de a, el cual se representa por a, se calcula de la forma siguiente.
a =
a
|a|
(7)
La representacion geometrica de esto es un vector con la misma direccion que a, pero de longitud
igual a 1.
2.4. Producto Punto
El producto punto o producto escalar es una operacion entre dos vectores que da como resultado
un escalar. Este se lleva a cabo multiplicando componente por componente de los vectores y
posteriormente sumando todos los resultados. Sean pues a y b vectores en R
2
.
a b =
_
a
x
a
y
_

_
b
x
b
y
_
= a
x
b
x
+a
y
b
y
(8)
Esta operacion tiene relacion con la ortogonalidad de los vectores. Si dos vectores v
1
y v
2
son
ortogonales, entonces el producto escalar entre los dos es igual a 0.
Esta operacion se puede escribir como la multiplicacion de un vector por la transpuesta del
otro si estos se toman como matrices de m1. Una matriz a
i,j
tiene como transpuesta a la matriz
a
j,i
. Para el caso de dos vectores a y b en R
2
, el producto
2
se vera de la siguiente forma.
a b = a
T
b =
_
a
x
a
y

_
b
x
b
y
_
= a
x
b
x
+a
y
b
y
(9)
Como se puede observar, el resultado es el mismo, por lo que ambas formas de escribir esta
operacion son equivalentes.
2
La multiplicacion de matrices se realiza de la forma: Sumatoria de todos los productos de los elementos de cada
la por los elementos de cada columna.
6
3 PROYECCIONES
3. Proyecciones
En

Algebra Lineal, una proyeccion no es mas que la representacion de un elemento de un
espacio vectorial a un subespacio del mismo. Con esto se quiere decir que un vector a de un
conjunto W es representado por otro vector de un conjunto V mas peque no, cuando el conjunto
V esta contenido en el conjunto W.
Figura 9: Proyecci on de un vector de un espacio a un subespacio.
Los casos mas comunes que se utilizan para ejemplicar esto, es el de un vector sobre una recta
y el de un vector sobre un plano. La generalizacion de ambos casos termina siendo una matriz
que realiza la proyeccion de un especio a otro. La matriz es particular para cada proyeccion, sin
embargo, el concepto es el mismo en todos los casos. A esta matriz se le llama matriz de proyeccion.
3.1. Proyeccion sobre una Recta
Para ilustrar este tema, se utiliza siempre la proyeccion de un vector en R
2
sobre una recta
tambien en R
2
. En este caso se realizara la deduccion completa, sin embargo no se tratara a ning un
ejemplo en particular.
Figura 10: Proyecci on de un vector b sobre una recta g.
Sea entonces b un vector en R
2
y g: X = 0 + t a, donde a es el vector sobre el que se proyec-
tara b. Notese que entre a y b se comprende un angulo . La proyeccion de b sobre a se denota
como el vector p. La notacion para una proyeccion de este tipo es la siguiente: proy
a
b y se lee
como la proyeccion de b sobre a.
Considerese entonces que la norma del vector p es igual a la norma de b por el coseno de .
|p| = |b| cos () (10)
7
3.1 Proyeccion sobre una Recta 3 PROYECCIONES
Y ademas, que el coseno de se dene de la siguiente forma.
cos () =
a b
|a| |b|
(11)
Ahora, si se sustituye la ecuacion (10) con la ecuacion (11), se obtiene la norma del vector p
expresada en terminos solo de a y b.
|p| = |b|
a b
|a| |b|
=
a b
|a|
(12)
Ahora, para obtener el vector p, se debe de dar direccion a su norma. Notese que a y p son
colineales, por lo que el vector unitario para ambos casos es el mismo. Entonces, tomando las
ecuaciones (7) y (12), se calcula la proyeccion de b sobre a: el vector p.
proy
a
b = p = |p| a =
a b
|a|

a
|a|
=
a b
|a| |a|
a (13)
Ya se tiene entonces la proyeccion p de b sobre a. Si a b se le resta p, se obtendra un vector
ortogonal a cualquier vector elemento de la recta g. Entonces puede decir que (b proy
a
b) v = 0
para todo v g.
8
3.2 Proyeccion sobre un Plano 3 PROYECCIONES
3.2. Proyeccion sobre un Plano
En la seccion anterior se hizo la deduccion de la proyecci on de un vector en R
2
a una recta, la
cual se puede considerar como un espacio unidimensional R. En el caso de una proyeccion sobre
un plano, se tomara un vector de R
3
y se proyectara sobre un plano, el cual se puede considerar
como un espacio bidimensional R
2
.
Figura 11: Proyecci on de un vector v sobre un plano S.
Para este caso, no se conoce un vector sobre el que se pueda proyectar el vector v. Es por esto
que en este caso la proyeccion se realizara utilizando varias poryecciones y luego suma de vectores.
Primero, se debe partir de la base ortogonal del plano. En este caso basta decir que se necesitan
dos vectores v
1
, v
2
S tal que v
1
v
2
= 0. El vector v se proyecta entonces sobre cada uno de
ellos y luego el resultado de esto se suma para obtener la proyeccion de v sobre S proy
S
v.
proy
S
v = proy
v
1
v + proy
v
2
v =
v
1
v
|v
1
| |v
1
|
v
1
+
v
2
v
|v
2
| |v
2
|
v
2
(14)
Figura 12: Proyecci on de un vector v sobre vectores ortogonales para llegar a la proyecci on sobre el plano.
Al igual que en el caso de una recta, el vector proyeccion pudo ser calculado. En el caso de
un plano, tambien se cumple que si a v se le resta proy
S
v, el vector resultante sera ortogonal a
cualquier vector que sea elemento del plano S, (v proy
S
v) v
i
= 0 v
i
S.
9
3.3 Matriz de Proyeccion 3 PROYECCIONES
3.3. Matriz de Proyeccion
Como se puede observar en las dos secciones anteriores, las proyecciones no son mas que trans-
formaciones. Por lo tanto, estas pueden ser representadas tambien por una matriz: la matriz de
proyeccion. En este caso se tiene una matriz A a la que se le puede multiplicar cualquier vector v
para obtener su proyeccion sobre un espacio W.
proy
W
v = Av (15)
En un caso general, se dice que el espacio W al que se esta proyectando es el espacio generado
por las columnas de la matriz, puesto que el vector proyecci on solo puede pertenecer a ese espacio.
Para ejemplicar esto, considerese una matriz de mn y un vector v R
n
. La proyeccion estara
dada entonces por:
proy
W
v =
_

_
a
1,1
a
1,2
a
1,3
. . . a
1,m
a
2,1
a
2,2
a
2,3
. . . a
2,m
a
3,1
a
3,2
a
3,3
. . . a
3,m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n,1
a
n,2
a
n,3
. . . a
n,m
_

_
v
1
v
2
v
3
.
.
.
v
n
_

_
(16)
Al expandir esto se obtiene:
proy
W
v = v
1
_

_
a
1,1
a
2,1
a
3,1
.
.
.
a
m,1
_

_
+ v
1
_

_
a
1,2
a
2,2
a
3,2
.
.
.
a
m,2
_

_
+ v
3
_

_
a
1,3
a
2,3
a
3,3
.
.
.
a
m,3
_

_
+ . . . + v
n
_

_
a
1,n
a
2,n
a
3,n
.
.
.
a
m,n
_

_
(17)
Aqui se puede ver que si v es cualquier vector en R
n
, entonces al espacio que se esta proyec-
tando es el generado por la combinacion lineal de las columnas de A. A este subespacio se le llama
espacio columna de A.
La matriz de proyeccion es especca para cada proyeccion y para el caso del Metodo de
Mnimos Cuadrados se hara la deduccion posteriormente. Sin embargo, en un caso general, la
matriz de proyeccion puede ser construida de la siguiente forma:
proy
W
v = UU
T
v (18)
Donde U es la matriz cuyas columnas son las bases ortonormales
3
del espacio W.
3
Bases Ortonormales: Vectores ortogonales de norma igual a 1 que generan a un espacio vectorial.
10
4 M

ETODO DE M

INIMOS CUADRADOS
4. Metodo de Mnimos Cuadrados
Figura 13: Regresi on lineal y cuadr atica.
El metodo de mnimos cuadrados es un metodo de extrapolacion para encontrar la curva que
mejor se ajuste a una coleccion de puntos. Se le conoce tambien bajo el nombre de Regresion. Con
el tiempo se le han dado otros nombres como Lineal o Cuadratica dependiendo de la curva que
se desea aproximar. Para este caso en particular, se comenzara con la regresion lineal. Luego se
generalizara para cualquier curva que se desee.
4.1. Caso de una Recta
Se comenzara asumiendo que se tiene una cantidad n de puntos en el plano. Cada punto
tendra una coordenada x
i
y una coordenada y
i
. Se quiere aproximar la tendencia de estos mediante
una recta de la forma:
g(x) = a + bx (19)
Se intentara hacer que todos los puntos pasen por la recta, por lo que se tendra n ecuaciones de
una recta expersadas de la siguiente forma:
a + bx
1
= y
1
a + bx
2
= y
2
a + bx
3
= y
3
.
.
.
a + bx
n
= y
n
(20)
Donde y
i
es una aproximacion de la coordenada en y de cada punto. Esto se puede reescribir de
forma matricial de la siguiente manera:
_

_
a bx
1
a bx
2
a bx
3
.
.
.
.
.
.
a bx
n
_

_
=
_

_
y
1
y
2
y
3
.
.
.
y
n
_

_
(21)
11
4.1 Caso de una Recta 4 M

ETODO DE M

INIMOS CUADRADOS
Que, reescribiendolo, es lo mismo que:
_

_
1 x
1
1 x
2
1 x
3
.
.
.
.
.
.
1 x
n
_

_
_
a
b
_
=
_

_
y
1
y
2
y
3
.
.
.
y
n
_

_
Ax = v (22)
La matriz que contiene a los x
i
se la ha identicado como A, al vector de incognitas (a y b) como
x y al vector que contiene a las y
i
como v. Pero para todo x
i
habra un y
i
diferente de y
i
ya que
la recta no pasara realmente por todos los puntos. Entonces se cuenta con cierto error para cada
punto (ver Figura 14).
Figura 14: Distancias de las que se compone el error.
El error se medira en forma de distancias entre y
i
y y
i
. Notese que en este caso se utilizara la
forma vista con anterioridad. El error para cada x
i
estara dado por:
e
2
i
= (y
i
y
i
)
2
= (y
i
(a + bx
i
))
2
(23)
Y entonces, el error total
2
en todo el metodo se puede expresar de la siguiente forma:

2
=
n

i=1
_
e
2
i

=
n

i=1
[y
i
y
i
]
2
=
n

i=1
[y
i
(a + bx
i
)]
2
(24)
La razon por la cual el error total y el error e
i
se escriben elevados al cuadrado se vera a
continuacion. Ahora, si se reescribe el error de forma vectorial, se obtiene un vector e de la forma
siguiente:
e = |v Ax| =
_

_
e
1
e
2
e
3
.
.
.
e
n
_

_
=
_

_
y
1
(a + bx
1
)
y
2
(a + bx
2
)
y
3
(a + bx
3
)
.
.
.
y
n
(a + bx
n
)
_

_
(25)
12
4.1 Caso de una Recta 4 M

ETODO DE M

INIMOS CUADRADOS
Si se calcula la norma del vector de error en la ecuacion (25), se obtiene lo siguiente:
|e| =

_
e
1
e
2
e
3
.
.
.
e
n
_

=
_
e
2
1
+ e
2
2
+ e
2
3
+ . . . + e
2
n
=

_
n

i=1
[e
2
i
] = (26)
Notese que la norma |e| es igual a . Es por esto que ambos se escriben elevados al cuadrado.
Ahora, las ecuaciones (24) y (26) son practicamente lo mismo. Solo la ecuacion (22) sera la
excepcion, ya que de esta (igual que de las anteriores 2), se puede encontrar la solucion al problema.
Por esto, la resolucion de estas se llevara a cabo de dos formas: Diferecial y Algebraica. Ambas
seran presentadas en las secciones 4.3 y 4.4 con el n de llegar a la solucion (seccion 4.5).
13
4.2 Generalizacion 4 M

ETODO DE M

INIMOS CUADRADOS
4.2. Generalizacion
En esta seccion se intentara generalizar el concepto que se vio en la seccion anterior. Para ello
se considerara que la curva que describe la tendencia de la coleccion de puntos es un polinomio P
de grado m. Entonces la ecuacion sera la siguiente:
P(x) =
1
+
2
x +
3
x
2
+ . . . +
m+1
x
m
= y (27)
Entonces las n ecuaciones para los puntos dados se veran de la siguiente forma:

1
+
2
x
1
+
3
x
2
1
+ . . . +
m+1
x
m
1
= y
1

1
+
2
x
2
+
3
x
2
2
+ . . . +
m+1
x
m
2
= y
2
.
.
.

1
+
2
x
n
+
3
x
2
n
+ . . . +
m+1
x
m
n
= y
n
(28)
Lo cual, de forma matricial, se puede representar as:
_

_
1 x
1
x
2
1
. . . x
m
1
1 x
2
x
2
2
. . . x
m
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
m
n
_

_
_

3
.
.
.

m+1
_

_
=
_

_
y
1
y
2
.
.
.
y
n
_

_
Ax = v (29)
Notese que la ecuacion (22) y ecuacion (29) terminan de la misma forma. Por lo que el procedi-
miento a partir de estas sera el mismo.
Ahora, se procedera a ver el error generalizado a polinomios. Para ello la ecuacion principal
sera de la forma:
e
2
= (y
i
y
i
)
2
=
_
y
i

1
+
2
x
i
+
3
x
2
i
+ . . . +
m+1
x
m
i
__
2
(30)
Entonces el error, al igual que en la seccion anterior, se puede expresar en forma vectorial as:
e =
_

_
e
1
e
2
.
.
.
e
n
_

_
=
_

_
y
1
(
1
+
2
x
1
+
3
x
2
1
+ . . . +
m+1
x
m
1
)
y
2
(
1
+
2
x
2
+
3
x
2
2
+ . . . +
m+1
x
m
2
)
.
.
.
y
n
(
1
+
2
x
n
+
3
x
2
n
+ . . . +
m+1
x
m
n
)
_

_
(31)
Considerando la ecuacion (26), entonces el error total
2
se puede expresar de la siguiente forma:

2
= |e|
2
=
n

i=1
[e
i
]
2
=
n

i=1
[y
i
y
i
]
2
=
n

i=1
_
y
i

1
+
2
x
i
+
3
x
2
i
+ . . . +
m+1
x
m
i
_
2
(32)
Las ecuaciones (29) y (32) son equivalentes a las ecuaciones (22) y (24) de la seccion anterior,
por lo que la resolucion de el sistema ya generalizado para cualquier polinomio, se puede llevar a
14
4.2 Generalizacion 4 M

ETODO DE M

INIMOS CUADRADOS
cabo de la misma manera que con una recta. Es por ello que la resolucion que se vera a continuacion
sera para una recta. Cualquier aspecto que cambie entre este caso y el generalizado se indicara en
las siguientes secciones tambien.
15
4.3 Resolucion Diferencial 4 M

ETODO DE M

INIMOS CUADRADOS
4.3. Resolucion Diferencial
El problema de mnimos cuadrados intenta encontrar una curva que sea la que mejor se ajuste
a una coleccion de puntos. Siendo este el caso, se intenta minimizar
4
el error entre la curva y todos
los puntos.
En esta seccion se intentara buscar este mnimo por medio del calculo diferencial. Para ello se
optimizara la funcion de error
2
, lo cual implica derivarla con respecto a cada una de las variables
a y b o en el caso de un polinomio mayor, con respecto a todos los
j
donde j 1 = m, el grado
del polinimo.
Se procede entonces a derivar la funcion de error
2
(Ecuacion (24)):
(
2
)
a
=

a
_
n

i=1
[y
i
(a + bx
i
)]
2
_
=
n

i=1
_

a
(y
i
(a + bx
i
))
2
_
(33)
(
2
)
b
=

b
_
n

i=1
[y
i
(a + bx
i
)]
2
_
=
n

i=1
_

b
(y
i
(a + bx
i
))
2
_
(34)
Notese que de la sumatoria se obtendra solo coecientes de a o b sin potencia o elevados al
cuadrado
5
. El cambio entre la sumatoria y la derivada parcial (Ecuaciones (33) y (34)) es posible
de realizar gracias a las propiedades de la derivada
6
.
Se contin ua entonces con las derivadas y se igualan estas a 0 con el n de encontrar el maximo
o mnimo.
(
2
)
a
= 2
n

i=1
[y
i
(a + bx
i
)] = 0 (35)
(
2
)
b
= 2
n

i=1
[y
i
(a + bx
i
)] x
i
= 0 (36)
Se distribuye la sumatoria y se reordenan los terminos de tal forma en que la ecuacion parezca
la de una recta.
na + b
n

i=1
[x
i
] =
n

i=1
[y
i
] (37)
a
n

i=1
[x
i
] + b
n

i=1
_
x
2
i

=
n

i=1
[x
i
y
i
] (38)
4
De aqui viene la otra parte del nombre del metodo: Mnimos Cuadrados.
5
Se puede pensar en par abolas de las que se busca el maximo o mnimo.
6
En este caso recurdese la propiedad que dicta que la derivada de una suma es la suma de las derivadas.
16
4.3 Resolucion Diferencial 4 M

ETODO DE M

INIMOS CUADRADOS
Esto se puede reescribir de forma matricial nuevamente:
_
na b

n
i=1
[x
i
]
a

n
i=1
[x
i
] b

n
i=1
[x
2
i
]
_
=
_
n
i=1
[y
i
]

n
i=1
[x
i
y
i
]
_
(39)
Que nalmente se convierte en:
_
n

n
i=1
[x
i
]

n
i=1
[x
i
]

n
i=1
[x
2
i
]
_ _
a
b
_
=
_
n
i=1
[y
i
]

n
i=1
[x
i
y
i
]
_
Bx = z (40)
En este punto, ya se ha llegado a una forma en la que el error ha sido minimizado y ambas
ecuaciones solo necesitan ser resueltas. Sin embargo el ultimo paso, la solucion a partir de la
ecuacion (40), se dejara para la seccion 4.5.
17
4.4 Resolucion Algebraica 4 M

ETODO DE M

INIMOS CUADRADOS
4.4. Resolucion Algebraica
Para la solucion de forma algebraica se parte de la ecuaci on (25). Esta expresa el error de cada
punto con respecto al polinomio solucion. Supongase entonces que w es el vector solucion de la
distancia mnima que se busca y w es cualquier vector en R
2
si se considera el caso de una recta.
El error de la recta solucion es menor al de cualquier otra recta.
|v A w| |v Aw| (41)
Se considerara entonces a A w como una proyeccion de v sobre el espacio columna de A, seg un
lo visto en la seccion 3.3. Notese que tanto v como A w pertenecen al mismo espacio vectorial.
proy
col(A)
v = A w (42)
El error de la recta solucion se puede reescribir entonces como:
= v proy
col(A)
v (43)
Seg un lo que se mostro en las secciones 3.1 y 3.2, se sabe que el error es un vector ortogonal
a cualquier vector elemento del espacio columna de A. Siendo esto as, se puede aprovechar la
ortogonalidad para encontrar al vector solucion w. Sea r = Aw donde w es cualquier vector en
R
2
.
r
_
v proy
col(A)
v
_
= 0

Aw (v A w) = 0
(44)
El producto anterior se puede reescribir seg un se vio en la seccion 2.4 como:
(Aw)
T
(v A w) = 0 (45)
w
T
A
T
(v A w) = 0 (46)
w A
T
(v A w) = 0 (47)
Para pasar de (45) a (46) se utilizo propiedades de la transpuesta. Notese que en la ecuacion
(47), A
T
(v A w) es otrtogonal a todo vector w. El unico vector ortogonal a todo vector en R
2
es el vector 0. Se procede entonces a resolver el sistema A
T
(v A w) = 0.
A
T
(v A w) = 0 (48)
A
T
v A
T
A w = 0 (49)
A
T
Ax = A
T
v (50)
Esto es lo mismo que:
_

_
1 x
1
1 x
2
1 x
3
.
.
.
.
.
.
1 x
n
_

_
T
_

_
1 x
1
1 x
2
1 x
3
.
.
.
.
.
.
1 x
n
_

_
_
a
b
_
=
_

_
1 x
1
1 x
2
1 x
3
.
.
.
.
.
.
1 x
n
_

_
T
_

_
y
1
y
2
y
3
.
.
.
y
n
_

_
(51)
18
4.4 Resolucion Algebraica 4 M

ETODO DE M

INIMOS CUADRADOS
Al calcular la transpuesta, se obtiene lo siguiente:
_
1 1 1 . . . 1
x
1
x
2
x
3
. . . x
n
_
_

_
1 x
1
1 x
2
1 x
3
.
.
.
.
.
.
1 x
n
_

_
_
a
b
_
=
_
1 1 1 . . . 1
x
1
x
2
x
3
. . . x
n
_
_

_
y
1
y
2
y
3
.
.
.
y
n
_

_
(52)
El resultado de la multiplicacion de matrices del lado izquierdo da como resultado una matriz de
22, mientras que la del lado derecho da como resultado una matriz de 21. Se procede entonces
a hacer la multiplicacion de las matrices y el resultado es el siguiente:
_
n

n
i=1
[x
i
]

n
i=1
[x
i
]

n
i=1
[x
2
i
]
_ _
a
b
_
=
_
n
i=1
[y
i
]

n
i=1
[x
i
y
i
]
_
Bx = z (53)
Notese que la ecuacion (53) es exactamente igual a la ecuacion (40). El procedimiento algebraico
es mas comodo, sin embargo, cuando se trabaja con polinomios de grado > 1.
19
4.5 Solucion 4 M

ETODO DE M

INIMOS CUADRADOS
4.5. Solucion
Ahora, para concluir con la deduccion, se tomara las ecuaciones (40) y (53) y se resolvera estas.
Para ello se utiliza a la matriz inversa. De esta forma se removera la matriz de sumatorias del lado
izquierdo, dejando as al vector de coecientes
_
a
b
_
despejado.
Primero se calculara la matriz inversa de (40). Existen 2 metodos para hacer esto: Por deter-
minantes y por el metodo de Gauss-Jordan. La operatoria utilizada en el sengundo metodo es mas
larga en comparacion al metodo por determinantes, por lo que se procedera a calcular la inversa
por deternimantes.
El determinante de la matriz, se calcula entonces:
det |B| = det

n
i=1
[x
i
]

n
i=1
[x
i
]

n
i=1
[x
2
i
]

= n
n

i=1
_
x
2
i

_
n

i=1
[x
i
]
_
2
(54)
Ya con el determinante, la matriz inversa se puede expresar de la siguiente forma:
B
1
=
_
n

n
i=1
[x
i
]

n
i=1
[x
i
]

n
i=1
[x
2
i
]
_
1
=
1
det |B|
_
n
i=1
[x
2
i
]

n
i=1
[x
i
]

n
i=1
[x
i
] n
_
(55)
Ahora, aplicando la inversa a ambos lados de la ecuacion se obtiene:
B
1
Bx = B
1
z

x = B
1
z
(56)
_
a
b
_
=
_

_
P
n
i=1
[x
2
i
]
n
P
n
i=1
[x
2
i
](
P
n
i=1
[x
i
])
2

P
n
i=1
[x
i
]
n
P
n
i=1
[x
2
i
](
P
n
i=1
[x
i
])
2

P
n
i=1
[x
i
]
n
P
n
i=1
[x
2
i
](
P
n
i=1
[x
i
])
2
n
n
P
n
i=1
[x
2
i
](
P
n
i=1
[x
i
])
2
_

_
_
n
i=1
[y
i
]

n
i=1
[x
i
y
i
]
_
(57)
Y de esto, al terminar de multiplicar se obtiene dos ecuaciones independientes:
a =

n
i=1
[x
i
]
2

n
i=1
[y
i
]

n
i=1
[x
i
]

n
i=1
[x
i
y
i
]
n

n
i=1
[x
2
i
] (

n
i=1
[x
i
])
2
(58)
b =
n

n
i=1
[x
i
y
i
]

n
i=1
[x
i
]

n
i=1
[y
i
]
n

n
i=1
[x
2
i
] (

n
i=1
[x
i
])
2
(59)
20
4.5 Solucion 4 M

ETODO DE M

INIMOS CUADRADOS
Ahora, si se considera que la media de una serie de datos w
1
, w
2
, . . . , w
i
se calcula de la siguiente
forma:
w =

n
i=1
[w
i
]
n
(60)
Entonces las ecuaciones (58) y (59), despues de un poco de manipulacion algebraica, se pueden
reescribir de la siguiente forma:
a =
y

n
i=1
[x
i
]
2
x

n
i=1
[x
i
y
i
]

n
i=1
[x
2
i
] n x
2
(61)
b =

n
i=1
[x
i
y
i
] n x y

n
i=1
[x
2
i
] n x
2
(62)
Y con estas dos ultimas ecuaciones se concluye la deduccion del metodo de mnimos cuadrados.
Los escalares a y b se introducen en la ecuacion (19) y con ello se logra la recta que mejor aproxima
la tendencia de la coleccion de puntos que se tena al principio.
Para el caso generalizado la solucion se deduce de la misma forma, solo que la ecuacion con que
se comienza (es decir, la ecuacion matricial obtenida de las secciones 4.3 y 4.4) sera mas grande.
De hecho, si la curva que se desea aproximar es un polinomio de grado m, entonces la matriz sera
de (m + 1) (m + 1).
21
5 CASOS ESPECIALES
5. Casos Especiales
Tomando en cuenta que no todas las curvas que se deseen aproximar son polinomios, se dedica
una seccion al caso de las curvas exponencial y logartmica. Despues de esto se espera haber dejado
claro que a cualquier coleccion de puntos se le puede aproximadar cualquier curva si se aplica la
transformacion correcta.
5.1. Exponencial
Figura 15: Regresi on exponencial.
Para el caso de una coleccion de puntos que se comportan de forma exponencial, la mejor
aproximacion sera una curva de la forma:
f(x) = y = ce
dx
(63)
En este caso, la deduccion hecha previamente aplicara si esta ecuacion se pudiera transformar
en alg un tipo de polinomio. Si a esta ecuacion se le aplica logartmo natural, notese que se puede
llevar a un polinomio de grado 1.
ln(y) = ln
_
ce
dx
_
(64)
= ln(c) + ln
_
e
dx
_
(65)
= ln(c) + dx (66)
Ahora, si todos los puntos ln(y) se utilizan como un Y , y ln(c) se toma como una constante C,
entonces la ecuacion (66) se transforma a un polinomio grado 1 de la forma:
Y = C + dx (67)
Esta ya se puede resolver con la misma deduccion planteada previamente. Una vez calculados
c = e
C
y d ya se pueden introducir estos a la ecuacion (63) y con esto obtener la curva deseada.
22
5.2 Logartmica 5 CASOS ESPECIALES
5.2. Logartmica
Figura 16: Regresi on logartmica.
Para el caso de un comportamiento logartmico, la ecuacion general que se ajustara sera de
la forma:
f(x) = y = b log
k
(cx) (68)
Este caso es un poco diferente al anterior. En este caso no se aplicara ninguna transformacion,
sino que se reordenara algunos terminos de la forma siguiente:
y = b log
k
(c) + b log
k
(x) (69)
Notese pues, que la ecuacion all ya tiene la forma de un polinomio de grado 1. Para que esto se
vuelva mas claro, considerese (b log
k
(c)) como una sola constante C y a log
k
(x) como X. Entonces
la ecuacion se vera as:
y = C + bX (70)
Se resuelve entonces el problema como si este fuera una recta y por ultimo se sustituyen las
constantes c y b en la ecuacion (68). Notese que para obtener c se debe de realizar la siguiente
operacion:
c = k
C
b
(71)
23
6 BIBLIOGRAF

IA
6. Bibliografa
6.1. Literatura
Anderson et. al. 1999. Estadstica para Administracion y Economa. 7 ed. Thomson
Grossman S. 1984. Elementary Linear Algebra. 2 ed. Wadsworth
Poole D. 2004.

Algebra Lineal: Una Introduccion Moderna. Thomson
6.2. Internet
Weisstein E. 2009. Least Squares Fitting. Wolfram MathWorld.
http://mathworld.wolfram.com/LeastSquaresFitting.html
Weisstein E. 2009. Least Squares Fitting - Exponential. Wolfram MathWorld.
http://mathworld.wolfram.com/LeastSquaresFittingExponential.html
Weisstein E. 2009. Least Squares Fitting - Logarithmic. Wolfram MathWorld.
http://mathworld.wolfram.com/LeastSquaresFittingLogarithmic.html
Wiley Publishing Inc. 2009. Linear Algebra: Projection onto a Subspace. ClisNotes.
http://www.clisnotes.com/WileyCDA/ClisReviewTopic/Projection-onto-a-Subspace.topicArticleId-20807,articleId-20792.html
6.3. Herramientas
GIMP: GNU Image Manipulation Program. Version 2.6.3. 2008.
http://www.gimp.org/
OpenOce.org: The Free and Open Productivity Suite. Version 3.0.1. 2008.
http://www.openoce.org/
SAGE: Open Source Mathematics Software. Version 3.1.4. 2008.
http://www.sagemath.org/
TexMaker: Free L
A
T
E
X Editor. Version 1.7. 2008.
http://www.xm1math.net/texmaker/
24

También podría gustarte