Está en la página 1de 26

M

etodo de Mnimos Cuadrados

Universidad de San Carlos de Guatemala


Facultad de Ciencias Qumicas y Farmacia
Matematica V
Rony Jose Letona QQ 200960024
Jose Roy Morales QQ 200717695

INDICE

INDICE

Indice
1. Distancias
1.1. R (Recta Real) . . . . . . .
1.2. R2 (Plano Cartesiano) . . .
1.3. R3 (Espacio Tridimensional)
1.4. Transformacion . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

2. Vectores (Repaso)
2.1. Multiplicacion por una Constante
2.2. Suma . . . . . . . . . . . . . . . .
2.3. Vector Unitario . . . . . . . . . .
2.4. Producto Punto . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.

1
1
2
3
4

.
.
.
.

5
5
5
6
6

3. Proyecciones
7
3.1. Proyeccion sobre una Recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2. Proyeccion sobre un Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3. Matriz de Proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4. M
etodo de Mnimos Cuadrados
4.1. Caso de una Recta . . . . . . .
4.2. Generalizacion . . . . . . . . . .
4.3. Resolucion Diferencial . . . . .
4.4. Resolucion Algebraica . . . . .
4.5. Solucion . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

11
11
14
16
18
20

5. Casos Especiales
22
5.1. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2. Logartmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6. Bibliografa
6.1. Literatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Herramientas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24
24
24
24

1 DISTANCIAS

1.

Distancias

Para comenzar la deduccion del metodo de mnimos cuadrados, es conveniente que se haga
un breve repaso sobre la forma en la que se miden distancias. Eso por esto que esta seccion
esta dedicada a ello.

1.1.

R (Recta Real)

Figura 1: Recta real.

Para facilitar la comprension, se comienza con la Recta Real (ver Figura 1). En ella la medicion
de distancias es relativamente sencilla y casi intuitiva: se calcula la diferencia de distancias hacia
el origen. Notese que en el caso de los n
umeros negativos, la distancia hay que tomarla en valor
absoluto. Es por esto que la formula general mas com
un para la medicion de distancias en R es la
siguiente:
Sean A y B R. La distancia d entre A y B es entonces
d(A, B) = |B A|

(1)

Esta forma de medir distancias en muy practica, pero no es la u


nica. Existen varias formas de
medir distancias, pero la que concierne al estudio del metodo de mnimos cuadrados es la que se
ve a continuacion.

Figura 2: Distancia entre puntos.

Considerando que el algebra al calcular con valores absolutos es relativamente complicada, la


forma utilizada para medir distancias en el metodo de mnimos cuadrados es distinta. Esta en
lugar de utilizar valores absolutos, eleva la expresion dentro del valor absoluto en la ecuacion (1)
al cuadrado. De alli su nombre: Metodo de Mnimos Cuadrados. Entonces, la formula general es la
siguiente:
Sean A y B R. La distancia d entre A y B es entonces
d(A, B) = (B A)2

(2)

1.2 R2 (Plano Cartesiano)

1.2.

1 DISTANCIAS

R2 (Plano Cartesiano)

Figura 3: Plano cartesiano.

En el caso del plano cartesiano, ya no se tiene una sino dos rectas reales unidas mediante un
Producto Cartesiano 1. La ubicacion de cada punto esta dada por pares ordenados. En este caso la
forma que se utiliza para medir distancias es la que ya se conoce.
 
 
xb
xa
2
. La distancia d entre los dos
y B =
Sean A y B puntos en R tal que A =
yb
ya
esta dada por
q
q
(3)
d(A, B) = (x)2 + (y)2 = (xb xa )2 + (yb ya )2
Como se puede notar, esto tiene mucha similitud con el teorema de Pitagoras. Esto es porque
la distancia entre un punto y el otro en R2 es, de hecho, la hipotenusa de un triangulo rectangulo
(ver Figura 4). En este caso los dos catetos son la distancia entre la las coordenadas en x y la
distancia entre la las coordenadas en y.

Figura 4: Distancia entre puntos (Pitgoras).

En el caso del metodo de mnimos cuadrados, esto no se utilizara de forma obvia, pero se
recomienda tener en mente la forma de la medicion.

Tambien llamado Producto Cruz. Este surgi


o en las formulaciones de Descartes sobre geometra analtica. El
plano cartesiano es un ejemplo: (R R).

1.3 R3 (Espacio Tridimensional)

1.3.

1 DISTANCIAS

R3 (Espacio Tridimensional)

Figura 5: Espacio tridimensional.

Para complementar el repaso sobre las mediciones de distancia, se analizara un u


ltimo caso. R3
se construye mediante el triple producto cartesiano de R, es decir (R R R). Son 3 rectas reales
que nos llevan a que la ubicacion de cada punto en el espacio este dada por una triada ordenada.
La forma para medir distancias en este caso es la siguiente:


xa
xb
3

Sean A y B puntos en R tal que A = ya y B = yb . La distancia d entre los dos


za
zb
esta dada por
q
q
2
2
2
(4)
d(A, B) = (x) + (y) + (z) = (xb xa )2 + (yb ya )2 + (zb za )2
A esta distancia se le llama distancia Euclidiana. Notese que esta es semejante al teorema de
Pitagoras, sin embargo, no es lo mismo. Algo que si se debe de tomar en cuenta es que la distancia
en R2 conserva la misma forma que en R3 .

Figura 6: Distancia entre puntos (Distancia Euclidiana).

Esto se puede generalizar para todos los Rn si se conserva la forma observada en R2 y en R3 .

1.4 Transformacion

1.4.

1 DISTANCIAS

Transformaci
on

Figura 7: Gr
aficas de f (x) = x2 y g(x) = |x| en R2 .

Si se piensa por un momento que de la forma de medir distancias vista al principio (Ecuacion
1) y la siguiente (Ecuacion 2) no se obtiene el mismo resultado, se esta en lo cierto. Se puede argumentar que a la primera forma se le fue aplicada una transformacion (elevacion al cuadrado) que
en cualquier momento puede ser revertida (raz cuadrada). La forma de la distancia transformada
no vara mucho de la forma de la distancia vista al principio (ver Figura 7). Es por esto que esta
trasnformacion es valida. Tambien se hace mucho enfasis en que la trasformacion se hace con el
fin de facilitar los calculos que se llevaran a cabo posteriormente.

2 VECTORES (REPASO)

2.

Vectores (Repaso)

En esta seccion se intentara definir las operaciones que se pueden realizar entre vectores en
R2 . Por supuesto, todas estas se pueden extender a los vectores en Rn . Solo se hara un repaso
de la multiplicacion por un escalar, suma, vector unitario y producto punto, ya que estas son las
pertinentes para la comprension de este documento.

2.1.

Multiplicaci
on por una Constante

La multiplicacion de un vector por una constante se realiza multiplicando esta por cada componente del vector. Sea a un vector en el plano y c una constante real.
  

ax
c ax
ca =c
=
(5)
ay
c ay
Geometricamente, la constante solo cambia la norma del vector. Aunque si esta es negativa, la
direccion del vector se vuelve totalmente la opuesta a su direccion original.

2.2.

Suma

La suma de vectores se lleva a cabo sumando componente por componente de cada vector.
Notese que la suma de vectores da como resultado otro vector. Sean a y b vectores en R2 , entonces
a + b se calcula de la forma siguiente.
  
    
c
ax + bx
bx
ax
(6)
= x =c
=
+
a+b=
cy
ay + by
by
ay
La interpretacion geometrica de esto es el metodo llamado de punta con cola. Este consiste en
colocar un la cola de un vector en la punta del otro logrando as que entre los dos apunten a un
punto que sera el resultado. En la Figura 8 se ve que al sumar el vector A con el vector AB el
resultado es el vector B.

Figura 8: Suma de los vectores A y AB dando como resultado el vector B.

2 VECTORES (REPASO)

2.3 Vector Unitario

2.3.

Vector Unitario

El vector unitario no es mas que un vector cuya norma es igual a 1. Para ello se toma un vector
y se lo divide por su norma. Tomese el ejemplo siguiente. Sea a un vector en R2 . El vector unitario
, se calcula de la forma siguiente.
de a, el cual se representa por a
=
a

a
|a|

(7)

La representacion geometrica de esto es un vector con la misma direccion que a, pero de longitud
igual a 1.

2.4.

Producto Punto

El producto punto o producto escalar es una operacion entre dos vectores que da como resultado
un escalar. Este se lleva a cabo multiplicando componente por componente de los vectores y
posteriormente sumando todos los resultados. Sean pues a y b vectores en R2 .
   
b
a
(8)
a b = x x = ax bx + ay by
by
ay

Esta operacion tiene relacion con la ortogonalidad de los vectores. Si dos vectores v1 y v2 son
ortogonales, entonces el producto escalar entre los dos es igual a 0.

Esta operacion se puede escribir como la multiplicacion de un vector por la transpuesta del
otro si estos se toman como matrices de m 1. Una matriz ai,j tiene como transpuesta a la matriz
aj,i . Para el caso de dos vectores a y b en R2 , el producto2 se vera de la siguiente forma.
 

 bx
T
= ax bx + ay by
(9)
a b = a b = ax ay
by
Como se puede observar, el resultado es el mismo, por lo que ambas formas de escribir esta
operacion son equivalentes.

La multiplicaci
on de matrices se realiza de la forma: Sumatoria de todos los productos de los elementos de cada
fila por los elementos de cada columna.

3 PROYECCIONES

3.

Proyecciones

En Algebra
Lineal, una proyeccion no es mas que la representacion de un elemento de un
espacio vectorial a un subespacio del mismo. Con esto se quiere decir que un vector a de un
conjunto W es representado por otro vector de un conjunto V mas peque
no, cuando el conjunto
V esta contenido en el conjunto W.

Figura 9: Proyecci
on de un vector de un espacio a un subespacio.

Los casos mas comunes que se utilizan para ejemplificar esto, es el de un vector sobre una recta
y el de un vector sobre un plano. La generalizacion de ambos casos termina siendo una matriz
que realiza la proyeccion de un especio a otro. La matriz es particular para cada proyeccion, sin
embargo, el concepto es el mismo en todos los casos. A esta matriz se le llama matriz de proyecci
on.

3.1.

Proyecci
on sobre una Recta

Para ilustrar este tema, se utiliza siempre la proyeccion de un vector en R2 sobre una recta
tambien en R2 . En este caso se realizara la deduccion completa, sin embargo no se tratara a ning
un
ejemplo en particular.

Figura 10: Proyecci


on de un vector b sobre una recta g.

Sea entonces b un vector en R2 y g: X = 0 + t a, donde a es el vector sobre el que se proyectara b. Notese que entre a y b se comprende un angulo . La proyeccion de b sobre a se denota
como el vector p. La notacion para una proyeccion de este tipo es la siguiente: proya b y se lee
como la proyeccion de b sobre a.
Considerese entonces que la norma del vector p es igual a la norma de b por el coseno de .
|p| = |b| cos ()
7

(10)

3.1 Proyeccion sobre una Recta

3 PROYECCIONES

Y ademas, que el coseno de se define de la siguiente forma.


ab
|a| |b|

cos () =

(11)

Ahora, si se sustituye la ecuacion (10) con la ecuacion (11), se obtiene la norma del vector p
expresada en terminos solo de a y b.
|p| = |b|

ab
ab
=
|a| |b|
|a|

(12)

Ahora, para obtener el vector p, se debe de dar direccion a su norma. Notese que a y p son
colineales, por lo que el vector unitario para ambos casos es el mismo. Entonces, tomando las
ecuaciones (7) y (12), se calcula la proyeccion de b sobre a: el vector p.
=
proya b = p = |p| a

ab a
ab

=
a
|a| |a|
|a| |a|

(13)

Ya se tiene entonces la proyeccion p de b sobre a. Si a b se le resta p, se obtendra un vector


ortogonal a cualquier vector elemento de la recta g. Entonces puede decir que (b proyab) v = 0
para todo v g.

3.2 Proyeccion sobre un Plano

3.2.

3 PROYECCIONES

Proyecci
on sobre un Plano

En la seccion anterior se hizo la deduccion de la proyeccion de un vector en R2 a una recta, la


cual se puede considerar como un espacio unidimensional R. En el caso de una proyeccion sobre
un plano, se tomara un vector de R3 y se proyectara sobre un plano, el cual se puede considerar
como un espacio bidimensional R2 .

Figura 11: Proyecci


on de un vector v sobre un plano S.

Para este caso, no se conoce un vector sobre el que se pueda proyectar el vector v. Es por esto
que en este caso la proyeccion se realizara utilizando varias poryecciones y luego suma de vectores.
Primero, se debe partir de la base ortogonal del plano. En este caso basta decir que se necesitan
dos vectores v1 , v2 S tal que v1 v2 = 0. El vector v se proyecta entonces sobre cada uno de
ellos y luego el resultado de esto se suma para obtener la proyeccion de v sobre S proyS v.
proyS v = proyv1 v + proyv2 v =

v1 v
v2 v
v1 +
v2
|v1 | |v1 |
|v2 | |v2 |

(14)

Figura 12: Proyecci


on de un vector v sobre vectores ortogonales para llegar a la proyecci
on sobre el plano.

Al igual que en el caso de una recta, el vector proyeccion pudo ser calculado. En el caso de
un plano, tambien se cumple que si a v se le resta proySv, el vector resultante sera ortogonal a
cualquier vector que sea elemento del plano S, (v proySv) vi = 0 vi S.

3.3 Matriz de Proyeccion

3.3.

3 PROYECCIONES

Matriz de Proyecci
on

Como se puede observar en las dos secciones anteriores, las proyecciones no son mas que transformaciones. Por lo tanto, estas pueden ser representadas tambien por una matriz: la matriz de
proyeccion. En este caso se tiene una matriz A a la que se le puede multiplicar cualquier vector v
para obtener su proyeccion sobre un espacio W .
proyW v = Av

(15)

En un caso general, se dice que el espacio W al que se esta proyectando es el espacio generado
por las columnas de la matriz, puesto que el vector proyeccion solo puede pertenecer a ese espacio.
Para ejemplificar esto, considerese una matriz de m n y un vector v Rn . La proyeccion estara
dada entonces por:


v1
a1,1 a1,2 a1,3 . . . a1,m
a2,1 a2,2 a2,3 . . . a2,m v2


(16)
proyW v = a3,1 a3,2 a3,3 . . . a3,m v3
..
..
.. ..
..
.
.
.
.
.
. .
.
vn
an,1 an,2 an,3 . . . an,m
Al expandir esto se obtiene:

a1,1
a2,1

proyW v = v1 a3,1
..
.
am,1

+ v1

a1,2
a2,2
a3,2
..
.
am,2

+ v3

a1,3
a2,3
a3,3
..
.
am,3

+ . . . + vn

a1,n
a2,n
a3,n
..
.
am,n

(17)

Aqui se puede ver que si v es cualquier vector en Rn , entonces al espacio que se esta proyectando es el generado por la combinacion lineal de las columnas de A. A este subespacio se le llama
espacio columna de A.
La matriz de proyeccion es especfica para cada proyeccion y para el caso del Metodo de
Mnimos Cuadrados se hara la deduccion posteriormente. Sin embargo, en un caso general, la
matriz de proyeccion puede ser construida de la siguiente forma:
proyW v = UUT v

Donde U es la matriz cuyas columnas son las bases ortonormales3 del espacio W .

Bases Ortonormales: Vectores ortogonales de norma igual a 1 que generan a un espacio vectorial.

10

(18)


4 METODO
DE MINIMOS CUADRADOS

4.

M
etodo de Mnimos Cuadrados

Figura 13: Regresi


on lineal y cuadr
atica.

El metodo de mnimos cuadrados es un metodo de extrapolacion para encontrar la curva que


mejor se ajuste a una coleccion de puntos. Se le conoce tambien bajo el nombre de Regresi
on. Con
el tiempo se le han dado otros nombres como Lineal o Cuadratica dependiendo de la curva que
se desea aproximar. Para este caso en particular, se comenzara con la regresion lineal. Luego se
generalizara para cualquier curva que se desee.

4.1.

Caso de una Recta

Se comenzara asumiendo que se tiene una cantidad n de puntos en el plano. Cada punto
tendra una coordenada xi y una coordenada yi . Se quiere aproximar la tendencia de estos mediante
una recta de la forma:
g(x) = a + bx

(19)

Se intentara hacer que todos los puntos pasen por la recta, por lo que se tendra n ecuaciones de
una recta expersadas de la siguiente forma:
a + bx1 = y1
a + bx2 = y2
a + bx3 = y3
..
.

(20)

a + bxn = yn
Donde yi es una aproximacion de la coordenada en y de cada punto. Esto se puede reescribir de
forma matricial de la siguiente manera:

a bx1
y1
a bx2 y2

a bx3 y3
(21)

..
.. ..
.
. .
a bxn
yn

11


4 METODO
DE MINIMOS CUADRADOS

4.1 Caso de una Recta

Que, reescribiendolo, es lo mismo que:

y1
1 x1
1 x2   y2

1 x3 a
= y3 Ax = v

..
.. .. b
.
. .
yn
1 xn

(22)

La matriz que contiene a los xi se la ha identificado como A, al vector de incognitas (a y b) como


x y al vector que contiene a las yi como v. Pero para todo xi habra un yi diferente de yi ya que
la recta no pasara realmente por todos los puntos. Entonces se cuenta con cierto error para cada
punto (ver Figura 14).

Figura 14: Distancias de las que se compone el error.

El error se medira en forma de distancias entre yi y yi . Notese que en este caso se utilizara la
forma vista con anterioridad. El error para cada xi estara dado por:
e2i = (yi yi )2 = (yi (a + bxi ))2

(23)

Y entonces, el error total 2 en todo el metodo se puede expresar de la siguiente forma:


n
n
n
X
X
 2 X
2
[yi yi] =
[yi (a + bxi )]2
=
ei =
2

i=1

i=1

(24)

i=1

La razon por la cual el error total y el error ei se escriben elevados al cuadrado se vera a
continuacion. Ahora, si se reescribe el error de forma vectorial, se obtiene un vector e de la forma
siguiente:

y1 (a + bx1 )
e1
e2 y2 (a + bx2 )

(25)
e = |v Ax| = e3 = y3 (a + bx3 )

..
..

.
.
yn (a + bxn )
en
12


4 METODO
DE MINIMOS CUADRADOS

4.1 Caso de una Recta

Si se calcula la norma del vector de error en la ecuacion (25), se obtiene lo siguiente:




e1


v
e2
u n
q

uX
e3
2
2
2
2
|e| =
[e2i ] =
= e1 + e2 + e3 + . . . + en = t
..
i=1
.


en

(26)

Notese que la norma |e| es igual a . Es por esto que ambos se escriben elevados al cuadrado.
Ahora, las ecuaciones (24) y (26) son practicamente lo mismo. Solo la ecuacion (22) sera la
excepcion, ya que de esta (igual que de las anteriores 2), se puede encontrar la solucion al problema.
Por esto, la resolucion de estas se llevara a cabo de dos formas: Diferecial y Algebr
aica. Ambas
seran presentadas en las secciones 4.3 y 4.4 con el fin de llegar a la solucion (seccion 4.5).

13


4 METODO
DE MINIMOS CUADRADOS

4.2 Generalizacion

4.2.

Generalizaci
on

En esta seccion se intentara generalizar el concepto que se vio en la seccion anterior. Para ello
se considerara que la curva que describe la tendencia de la coleccion de puntos es un polinomio P
de grado m. Entonces la ecuacion sera la siguiente:
P (x) = 1 + 2 x + 3 x2 + . . . + m+1 xm = y

(27)

Entonces las n ecuaciones para los puntos dados se veran de la siguiente forma:
1 + 2 x1 + 3 x21 + . . . + m+1 xm
1
1 = y
1 + 2 x2 + 3 x22 + . . . + m+1 xm
=
y
2
2
..
.

(28)

1 + 2 xn + 3 x2n + . . . + m+1 xm
n
n = y
Lo cual, de forma matricial, se puede representar as:

1
1 x1 x21 . . . xm
1
2
1 x2 x2 . . . xm
2
2

.. ..
.. 3
.. . .
. .
. . ..
.
.
2
1 xn xn . . . xm
n
m+1

y1
y2
..
.
yn

Ax = v

(29)

Notese que la ecuacion (22) y ecuacion (29) terminan de la misma forma. Por lo que el procedimiento a partir de estas sera el mismo.

Ahora, se procedera a ver el error generalizado a polinomios. Para ello la ecuacion principal
sera de la forma:
e2 = (yi yi )2 = yi 1 + 2 xi + 3 x2i + . . . + m+1 xm
i

2

(30)

Entonces el error, al igual que en la seccion anterior, se puede expresar en forma vectorial as:

e1
y1 (1 + 2 x1 + 3 x21 + . . . + m+1 xm
)
1
e2 y2 (1 + 2 x2 + 3 x2 + . . . + m+1 xm )
2
2

e = .. =
(31)

..
.

.
en
yn (1 + 2 xn + 3 x2n + . . . + m+1 xm
n)
Considerando la ecuacion (26), entonces el error total 2 se puede expresar de la siguiente forma:

= |e| =

n
X
i=1

[ei ] =

n
X
i=1

[yi yi ] =

n
X


yi 1 + 2 xi + 3 x2i + . . . + m+1 xm
i

i=1

2

(32)

Las ecuaciones (29) y (32) son equivalentes a las ecuaciones (22) y (24) de la seccion anterior,
por lo que la resolucion de el sistema ya generalizado para cualquier polinomio, se puede llevar a
14


4 METODO
DE MINIMOS CUADRADOS

4.2 Generalizacion

cabo de la misma manera que con una recta. Es por ello que la resolucion que se vera a continuacion
sera para una recta. Cualquier aspecto que cambie entre este caso y el generalizado se indicara en
las siguientes secciones tambien.

15


4 METODO
DE MINIMOS CUADRADOS

4.3 Resolucion Diferencial

4.3.

Resoluci
on Diferencial

El problema de mnimos cuadrados intenta encontrar una curva que sea la que mejor se ajuste
a una coleccion de puntos. Siendo este el caso, se intenta minimizar4 el error entre la curva y todos
los puntos.
En esta seccion se intentara buscar este mnimo por medio del calculo diferencial. Para ello se
optimizara la funcion de error 2 , lo cual implica derivarla con respecto a cada una de las variables
a y b o en el caso de un polinomio mayor, con respecto a todos los j donde j 1 = m, el grado
del polinimo.
Se procede entonces a derivar la funcion de error 2 (Ecuacion (24)):
!

n
n 
X
(2 )
X

2
2
=
[yi (a + bxi )] =
(yi (a + bxi ))
a
a i=1
a
i=1
!

n
n 
X
X

(2 )
2
2
[yi (a + bxi )] =
=
(yi (a + bxi ))
b
b i=1
b
i=1

(33)

(34)

Notese que de la sumatoria se obtendra solo coeficientes de a o b sin potencia o elevados al


cuadrado5 . El cambio entre la sumatoria y la derivada parcial (Ecuaciones (33) y (34)) es posible
de realizar gracias a las propiedades de la derivada6 .
Se contin
ua entonces con las derivadas y se igualan estas a 0 con el fin de encontrar el maximo
o mnimo.
n

X
(2 )
[yi (a + bxi )] = 0
= 2
a
i=1

(35)

X
(2 )
= 2
[yi (a + bxi )] xi = 0
b
i=1

(36)

Se distribuye la sumatoria y se reordenan los terminos de tal forma en que la ecuacion parezca
la de una recta.
na + b

n
X

[xi ] =

i=1

n
X
i=1

[xi ] + b

n
X

[yi ]

(37)

i=1

n
n
X
 2 X
xi =
[xi yi ]
i=1

i=1

De aqui viene la otra parte del nombre del metodo: Mnimos Cuadrados.
Se puede pensar en par
abolas de las que se busca el maximo o mnimo.
6
En este caso recurdese la propiedad que dicta que la derivada de una suma es la suma de las derivadas.
5

16

(38)


4 METODO
DE MINIMOS CUADRADOS

4.3 Resolucion Diferencial

Esto se puede reescribir de forma matricial nuevamente:



  Pn

P
[yi ]
b P ni=1 [xi ]
i=1
P
Pna
=
n
a ni=1 [xi ] b ni=1 [x2i ]
i=1 [xi yi ]

(39)

Que finalmente se convierte en:



    Pn

Pn
[y
]
[x
]
a
n
i
i
Pn
Pni=1 2
Bx = z
= Pni=1
b
i=1 [xi yi ]
i=1 [xi ]
i=1 [xi ]

(40)

En este punto, ya se ha llegado a una forma en la que el error ha sido minimizado y ambas
ecuaciones solo necesitan ser resueltas. Sin embargo el u
ltimo paso, la solucion a partir de la
ecuacion (40), se dejara para la seccion 4.5.

17


4 METODO
DE MINIMOS CUADRADOS

4.4 Resolucion Algebraica

4.4.

Resoluci
on Algebr
aica

Para la solucion de forma algebraica se parte de la ecuacion (25). Esta expresa el error de cada
es el vector solucion de la
punto con respecto al polinomio solucion. Supongase entonces que w
distancia mnima que se busca y w es cualquier vector en R2 si se considera el caso de una recta.
El error de la recta solucion es menor al de cualquier otra recta.
|v Aw|
|v Aw|

(41)

como una proyeccion de v sobre el espacio columna de A, seg


Se considerara entonces a Aw
un
pertenecen al mismo espacio vectorial.
lo visto en la seccion 3.3. Notese que tanto v como Aw

proycol(A) v = Aw

(42)

El error de la recta solucion se puede reescribir entonces como:


= v proycol(A) v

(43)

Seg
un lo que se mostro en las secciones 3.1 y 3.2, se sabe que el error es un vector ortogonal
a cualquier vector elemento del espacio columna de A. Siendo esto as, se puede aprovechar la
Sea r = Aw donde w es cualquier vector en
ortogonalidad para encontrar al vector solucion w.
2
R .

r v proycol(A) v = 0

(44)
=0
Aw (v Aw)
El producto anterior se puede reescribir seg
un se vio en la seccion 2.4 como:
=0
(Aw)T (v Aw)
T T
=0
w A (v Aw)
T
=0
w A (v Aw)

(45)
(46)
(47)

Para pasar de (45) a (46) se utilizo propiedades de la transpuesta. Notese que en la ecuacion
es otrtogonal a todo vector w. El u
(47), AT (v Aw)
nico vector ortogonal a todo vector en R2
= 0.
es el vector 0. Se procede entonces a resolver el sistema AT (v Aw)
=0
AT (v Aw)
T
T
=0
A v A Aw
T
A Ax = AT v

(48)
(49)
(50)

Esto es lo mismo que:

T
1
1 x1
1
1 x2

1 x3
1
.. .. ..
. . .
1
1 xn

x1
x2
x3
..
.
xn

 

a
=

18

T
y1
1 x1

1 x2
y2

1 x3 y3

.. .. ..
. . .
yn
1 xn

(51)


4 METODO
DE MINIMOS CUADRADOS

4.4 Resolucion Algebraica

Al calcular la transpuesta, se obtiene lo


 1
1 1 1 ... 1 1

x1 x2 x3 . . . xn ..
.
1

siguiente:

x1
x2
  
a
1 1 1 ...
x3
=

x1 x2 x3 . . .
.. b
.
xn

1
xn

y1
y2
y3
..
.
yn

(52)

El resultado de la multiplicacion de matrices del lado izquierdo da como resultado una matriz de
2 2, mientras que la del lado derecho da como resultado una matriz de 2 1. Se procede entonces
a hacer la multiplicacion de las matrices y el resultado es el siguiente:

    Pn

Pn
[yi ]
a
i=1
P
Pn n
Pni=1 [x2i ]
Bx = z
(53)
=
n
b
i=1 [xi yi ]
i=1 [xi ]
i=1 [xi ]

Notese que la ecuacion (53) es exactamente igual a la ecuacion (40). El procedimiento algebraico
es mas comodo, sin embargo, cuando se trabaja con polinomios de grado > 1.

19


4 METODO
DE MINIMOS CUADRADOS

4.5 Solucion

4.5.

Soluci
on

Ahora, para concluir con la deduccion, se tomara las ecuaciones (40) y (53) y se resolvera estas.
Para ello se utiliza a la matriz inversa. De esta forma
  se removera la matriz de sumatorias del lado
a
izquierdo, dejando as al vector de coeficientes
despejado.
b
Primero se calculara la matriz inversa de (40). Existen 2 metodos para hacer esto: Por determinantes y por el metodo de Gauss-Jordan. La operatoria utilizada en el sengundo metodo es mas
larga en comparacion al metodo por determinantes, por lo que se procedera a calcular la inversa
por deternimantes.
El determinante de la matriz, se calcula entonces:

n
X

 2
=n
xi


Pn

n
i=1 [xi ]

P
P
det |B| = det n
n
[xi ]
[x2i ]
i=1

i=1

i=1

n
X
i=1

!2

[xi ]

(54)

Ya con el determinante, la matriz inversa se puede expresar de la siguiente forma:


 Pn
1
Pn
Pn
2
1
[x
]

[x
]
[x
]
i
i
i
i=1
i=1
i=1
Pn
Pn
=
2
n
det |B| i=1 [xi ]
i=1 [xi ]
i=1 [xi ]

Pn n

(55)

Ahora, aplicando la inversa a ambos lados de la ecuacion se obtiene:


B 1 Bx = B 1 z

x = B 1 z

 
a

=
b

[x2i ]
P
Pn
2
2
n i=1 [xi ]( n
i=1 [xi ])
Pn
Pn

i=1

i=1 [xi ]
Pn
2
2
x
i=1 [xi ]
i=1 i

[ ] (

Pn

i=1 [xi ]
Pn
P
2
2
x
n n
i=1 [xi ]
i=1 i

[ ] (

Pn

(56)

n
P
2
2
x
]
( ni=1 [xi ])
[
i=1 i

Pn


 Pn
[y
]
i
i=1
Pn
i=1 [xi yi ]

(57)

Y de esto, al terminar de multiplicar se obtiene dos ecuaciones independientes:

a=

Pn

i=1

b=

[xi ]2

Pn

[yi ]
Pni=1 2
n i=1 [xi ]

Pn
i=1
i=1 [xi ]
Pn
2
( i=1 [xi ])

Pn

[xi yi ]

P
P
[xi yi] ni=1 [xi ] ni=1 [yi ]
P
P
2
n ni=1 [x2i ] ( ni=1 [xi ])

Pn

i=1

20

(58)

(59)


4 METODO
DE MINIMOS CUADRADOS

4.5 Solucion

Ahora, si se considera que la media de una serie de datos w1 , w2 , . . . , wi se calcula de la siguiente


forma:
Pn
[wi ]
w = i=1
(60)
n
Entonces las ecuaciones (58) y (59), despues de un poco de manipulacion algebraica, se pueden
reescribir de la siguiente forma:
P
P
y ni=1 [xi ]2 x ni=1 [xi yi]
Pn
(61)
a=
2
x2
i=1 [xi ] n
Pn
[xi yi ] n
xy
b = Pi=1
n
2
x2
i=1 [xi ] n

(62)

Y con estas dos u


ltimas ecuaciones se concluye la deduccion del metodo de mnimos cuadrados.
Los escalares a y b se introducen en la ecuacion (19) y con ello se logra la recta que mejor aproxima
la tendencia de la coleccion de puntos que se tena al principio.
Para el caso generalizado la solucion se deduce de la misma forma, solo que la ecuacion con que
se comienza (es decir, la ecuacion matricial obtenida de las secciones 4.3 y 4.4) sera mas grande.
De hecho, si la curva que se desea aproximar es un polinomio de grado m, entonces la matriz sera
de (m + 1) (m + 1).

21

5 CASOS ESPECIALES

5.

Casos Especiales

Tomando en cuenta que no todas las curvas que se deseen aproximar son polinomios, se dedica
una seccion al caso de las curvas exponencial y logartmica. Despues de esto se espera haber dejado
claro que a cualquier coleccion de puntos se le puede aproximadar cualquier curva si se aplica la
transformacion correcta.

5.1.

Exponencial

Figura 15: Regresi


on exponencial.

Para el caso de una coleccion de puntos que se comportan de forma exponencial, la mejor
aproximacion sera una curva de la forma:
f (x) = y = cedx

(63)

En este caso, la deduccion hecha previamente aplicara si esta ecuacion se pudiera transformar
en alg
un tipo de polinomio. Si a esta ecuacion se le aplica logartmo natural, notese que se puede
llevar a un polinomio de grado 1.
ln(y) = ln cedx

(64)
dx

= ln(c) + ln e
= ln(c) + dx

(65)
(66)

Ahora, si todos los puntos ln(y) se utilizan como un Y , y ln(c) se toma como una constante C,
entonces la ecuacion (66) se transforma a un polinomio grado 1 de la forma:
Y = C + dx

(67)

Esta ya se puede resolver con la misma deduccion planteada previamente. Una vez calculados
c = eC y d ya se pueden introducir estos a la ecuacion (63) y con esto obtener la curva deseada.

22

5.2 Logartmica

5.2.

5 CASOS ESPECIALES

Logartmica

Figura 16: Regresi


on logartmica.

Para el caso de un comportamiento logartmico, la ecuacion general que se ajustara sera de


la forma:
f (x) = y = b logk (cx)

(68)

Este caso es un poco diferente al anterior. En este caso no se aplicara ninguna transformacion,
sino que se reordenara algunos terminos de la forma siguiente:
y = b logk (c) + b logk (x)

(69)

Notese pues, que la ecuacion all ya tiene la forma de un polinomio de grado 1. Para que esto se
vuelva mas claro, considerese (b logk (c)) como una sola constante C y a logk (x) como X. Entonces
la ecuacion se vera as:
y = C + bX

(70)

Se resuelve entonces el problema como si este fuera una recta y por u


ltimo se sustituyen las
constantes c y b en la ecuacion (68). Notese que para obtener c se debe de realizar la siguiente
operacion:
C

c=kb

23

(71)

6 BIBLIOGRAFIA

6.
6.1.

Bibliografa
Literatura
Anderson et. al. 1999. Estadstica para Administracion y Economa. 7 ed. Thomson
Grossman S. 1984. Elementary Linear Algebra. 2 ed. Wadsworth

Poole D. 2004. Algebra


Lineal: Una Introduccion Moderna. Thomson

6.2.

Internet
Weisstein E. 2009. Least Squares Fitting. Wolfram MathWorld.
http://mathworld.wolfram.com/LeastSquaresFitting.html

Weisstein E. 2009. Least Squares Fitting - Exponential. Wolfram MathWorld.


http://mathworld.wolfram.com/LeastSquaresFittingExponential.html

Weisstein E. 2009. Least Squares Fitting - Logarithmic. Wolfram MathWorld.


http://mathworld.wolfram.com/LeastSquaresFittingLogarithmic.html

Wiley Publishing Inc. 2009. Linear Algebra: Projection onto a Subspace. CliffsNotes.
http://www.cliffsnotes.com/WileyCDA/CliffsReviewTopic/Projection-onto-a-Subspace.topicArticleId-20807,articleId-20792.html

6.3.

Herramientas
GIMP: GNU Image Manipulation Program. Version 2.6.3. 2008.
http://www.gimp.org/

OpenOffice.org: The Free and Open Productivity Suite. Version 3.0.1. 2008.
http://www.openoffice.org/

SAGE: Open Source Mathematics Software. Version 3.1.4. 2008.


http://www.sagemath.org/

TexMaker: Free LATEX Editor. Version 1.7. 2008.


http://www.xm1math.net/texmaker/

24

También podría gustarte