Está en la página 1de 49

1/49

Ant.
M etodos Matem aticos de Especialidad
Ingeniera El ectrica
Sistemas de ecuaciones
no lineales
2
Jos e Luis de la Fuente OConnor
jl.delafuente@iberdrola.es
jldelafuente@etsii.upm.es
Escuela T ecnica Superior de Ingenieros Industriales
Universidad Polit ecnica de Madrid
Clase_sisno_2_06.pdf
2/49

Ant.

Indice
Introducci on
Sistemas de una ecuaci on y una variable
Sistemas de ecuaciones no lineales
M etodo de Newton-Raphson
Variantes del m etodo de Newton
M etodos cuasi Newton
Mnimos cuadrados no lineales
3/49

Ant.
M etodo de Newton-Raphson
Estudiaremos funciones vectoriales f : R
n
R
m
cuando n = m.
Si se supone que f C
1
y en un punto x
k
de un proceso iterativo
tendente a resolver f(x) = 0 se aproxima la funci on mediante el
modelo, M
k
(x
k
), que dene el desarrollo en serie de Taylor
alrededor de ese punto, trunc andolo a partir de los t erminos de
segundo orden, se tiene que
M
k
(x
k
) = f(x
k
) + J(x
k
)(x x
k
),
donde J(x
k
) es la matriz Jacobiana del sistema en x
k
:
J(x
k
) =
_

_
f
1
(x)
x
1

f
1
(x)
x
n
.
.
.
.
.
.
.
.
.
f
n
(x)
x
1

f
n
(x)
x
n
_

_
x=x
k
.
4/49

Ant.
Si se utiliza esa aproximaci on lineal de la funci on y se resuelve el
sistema de ecuaciones lineales que dene
f(x
k
) + J(x
k
)(x x
k
) = 0,
su soluci on
x = x
k
J(x
k
)
1
f(x
k
)
determinar a un nuevo punto del proceso iterativo.
La relaci on de recurrencia del m etodo de Newton-Raphson para
sistemas de ecuaciones no lineales es pues
x
k+1
= x
k
J(x
k
)
1
f(x
k
)
5/49

Ant.
El paso de Newton es x
k+1
x
k
: una aproximaci on de x

x
k
.
Cada ecuaci on, f
i
: R
n
R, se reemplaza o aproxima por el hiperplano
tangente en x
k
a la curva que dene esa f
i
.
El algoritmo de Newton-Raphson para resolver sistemas de ecuaciones
no lineales es el siguiente.
Paso 0 Denir un x
0
R
n
; hacer k = 1 y x
k
x
0
.
Paso 1 Determinar la soluci on de J(x
k
)(x
k+1
x
k
) = f(x
k
).
Paso 2 Si |f(x
k+1
)|
2
< Tol, parar: el problema est a resuelto.
Si no, hacer k = k + 1, x
k
= x
k+1
e ir al paso 1.
6/49

Ant.
Ejemplo
Resolvamos, utilizando el m etodo de Newton y partiendo del punto
[1, 1, 1]
T
, el sistema de ecuaciones no lineales
3x
1
cos(x
2
x
3
)
1
2
= 0
x
2
1
81
_
x
2
+
1
10
_
2
+ sen(x
3
) + 1,06 = 0
e
x
1
x
2
+ 20x
3
+
10 3
3
= 0.
A continuaci on se lista un c odigo en MATLAB que implementa el m etodo
de Newton que acabamos de presentar, particularizado para este
problema.
La soluci on de los sistemas de ecuaciones lineales de cada iteraci on
se realiza mediante el operador .
7/49

Ant.
function Newtrp
% Newton-Raphson
tol=sqrt(eps); x=[1;1;1]; dnor=1.0;
while dnor>tol
f=fx(x);
J=derf(x);
p=J\f;
x=x-p;
dnor=norm(fx(x));
fprintf( %15.10e %15.10e %15.10e %15.10e\n, x,dnor);
end
function f=fx(x)
f(1) = 3
*
x(1)-cos(x(2)
*
x(3))-0.5;
f(2) = x(1)2-81
*
(x(2)+0.1)2+sin(x(3))+1.06;
f(3) = exp((-x(1)
*
x(2)))+20
*
x(3)+(10
*
pi-3)/3;
function J=derf(x)
J(1,1) = 3.0;
J(1,2) = sin(x(2)
*
x(3))
*
x(3);
J(1,3) = sin(x(2)
*
x(3))
*
x(2);
J(2,1) = 2.0
*
x(1);
J(2,2) = -162.0
*
(x(2)+0.1);
J(2,3) = cos(x(3));
J(3,1) = -exp((-x(1)
*
x(2)))
*
x(2);
J(3,2) = -exp((-x(1)
*
x(2)))
*
x(1);
J(3,3) = 20.0;
8/49

Ant.
El proceso de convergencia es el que se describe en la tabla.
k x
1
x
2
x
3
|f(x
k
)|
2
1 9,1968721308e-1 4,6082245570e-01 -5,0338763550e-1 2,4087256490e+01
2 5,0100048532e-1 1,8743347767e-01 -5,2086923301e-1 5,8788006806e+00
3 5,0054293549e-1 6,1153453678e-02 -5,2200096420e-1 1,2916807111e+00
4 5,0010443627e-1 1,1617105749e-02 -5,2329514612e-1 1,9876169457e-01
5 5,0000551037e-1 6,0561572295e-04 -5,2358293632e-1 9,8214794394e-03
6 5,0000001666e-1 1,8263674473e-06 -5,2359872783e-1 2,9529468423e-05
7 5,0000000000e-1 -1,6710515026e-11 -5,2359877560e-1 2,7018031860e-10
u
9/49

Ant.
Convergencia del m etodo de Newton
Dada una norma vectorial | | en R
n
y otra matricial | | en R
mn
,
m, n > 0, una funci on g : R
n
R
mn
se dice satisface la condici on de
Lipschitz con constante en un abierto D R
n
, si para todo x e y
pertenecientes a D se cumple que
|g(x) g(y)| |x y|.
Una funci on g que satisface la condici on de Lipschitz en D se dice
continua -Lipschitz en ese D, design andose g Lip

(D).
Teorema 1 Sea la funci on f : R
n
R
n
, continua y diferenciable en un conjunto convexo
abierto D R
n
. Sup ongase que existe un x

R
n
y r, > 0 tales que la bola abierta
S(x

, r) D, que f(x

) = 0 y que J(x

)
1
existe con |J(x

)
1
| y J Lip

(S(x

, r)).
Existe entonces un > 0 tal que para todo x
0
S(x

, r), la sucesi on x
1
, x
2
, . . . generada por
x
k+1
= x
k
J(x
k
)
1
f(x
k
), k = 0, 1, . . .
converge a x

veric andose que


|x
k+1
x

| |x
k
x

|
2
, k = 0, 1, . . . (1)
10/49

Ant.
Modicaciones del M etodo de Newton para
sistemas no lineales
Newton-Raphson por diferencias nitas
Es esta una variante del m etodo de Newton para cuando no se conoce,
o no se desea calcular, la expresi on analtica de la matriz Jacobiana
del sistema.

Esta se reemplaza por su aproximaci on en diferencias
nitas, siguiendo el mismo principio que veamos anteriormente.
11/49

Ant.
La forma m as adecuada de determinar h sera modicar cada
componente x
j
del vector x por separado, de acuerdo con la f ormula
h
j
=

x
j
,
y luego calcular cada columna a
j
de la matriz Jacobiana aproximada
mediante la expresi on
a
j
=
f(x + h
j
e
j
) f(x)
h
j
.
Cuando el problema est a bien escalado, el par ametro h puede elegirse
igual a

para todos los x


j
. Es importante tener siempre en cuenta que
si el valor de los componentes del vector x dieren mucho unos de
otros, si se elige un mismo h para todos, el resultado puede ser un
desastre.
12/49

Ant.
Ejemplo
Partiendo desde x = [1, 1, 1]
T
, resolvamos mediante Newton-Raphson
por diferencias nitas, en Matlab, el problema del ejemplo anterior.
% Newton-Raphson por diferencias finitas
function Newtrp_df
global h
tol=sqrt(eps); x=[1;1;1]; dnor=1.0; h=tol;
while dnor >tol
f=fx(x);
J=derf(f,x);
p=J\f;
x=x-p;
dnor=norm(fx(x));
fprintf( %15.10e %15.10e %15.10e %15.10e\n, x,dnor);
end
function f=fx(x)
f(1) = 3
*
x(1)-cos(x(2)
*
x(3))-0.5;
f(2) = x(1)2-81
*
(x(2)+0.1)2+sin(x(3))+1.06;
f(3) = exp((-x(1)
*
x(2)))+20
*
x(3)+(10
*
pi-3)/3;
function J=derf(f,x)
global h
for i=1:3
x(i)=x(i)+h;
f1=fx(x);
J(:,i)=(f1-f)/h;
x(i)=x(i)-h;
end
13/49

Ant.
El proceso de convergencia que resulta de la ejecuci on de este c odigo
es el que describe la tabla.
k x
1
x
2
x
3
|f(x
k
)|
2
1 9,1968721314e-1 4,6082245826e-01 -5,0338763389e-1 2,4087256721e+01
2 5,0100048524e-1 1,8743348339e-01 -5,2086923236e-1 5,8788009464e+00
3 5,0054293556e-1 6,1153459243e-02 -5,2200096436e-1 1,2916808565e+00
4 5,0010443628e-1 1,1617109794e-02 -5,2329514576e-1 1,9876176740e-01
5 5,0000551039e-1 6,0561685407e-04 -5,2358293631e-1 9,8214978438e-03
6 5,0000001666e-1 1,8264191607e-06 -5,2359872782e-1 2,9530304459e-05
7 5,0000000000e-1 -1,6847869395e-11 -5,2359877560e-1 2,7240041680e-10
u
14/49

Ant.
Newton modicado
Esta variante resulta de considerar la misma matriz Jacobiana, J(x
0
),
durante todo el proceso iterativo o, al menos, durante un n umero jo de
iteraciones.
Jacobi
Esta otra variante surge de aproximar la matriz Jacobiana s olo por los
elementos de su diagonal principal.
El esquema iterativo lo dene la relaci on de recurrencia
x
k+1
= x
k
D
1
k
f(x
k
),
donde d
k
ii
= J
k
ii
.
15/49

Ant.
Si los elementos que no est an en la diagonal principal de la matriz J
son peque nos comparados con los de la diagonal principal esta
estrategia puede resultar muy buena.
Gauss-Seidel
Esta variante aproxima la matriz Jacobiana mediante la que resulta de
tener en cuenta s olo los elementos de su parte triangular inferior
(incluidos los elementos de la diagonal principal).
El esquema iterativo queda denido por la relaci on de recurrencia
x
k+1
= x
k
L
1
k
f(x
k
),
donde L
k
ij
= J
k
ij
, i j.
16/49

Ant.
Relajaci on SOR
El esquema iterativo en forma matricial que se utiliza en este caso es
x
k+1
= x
k
(D
k
+L
k
)
1
f(x
k
).
El par ametro de relajaci on es = 1/( + 1).
17/49

Ant.
M etodos cuasi Newton
El objetivo de estos m etodos consiste en aproximar la matriz
Jacobiana de cada iteraci on mediante f ormulas de recurrencia. Son
la extensi on de la idea del m etodo de la secante a n dimensiones.
Broyden [1965] aplic o la idea de escoger J(x
k
): de tal forma que se
minimice el valor de la funci on que se obtendra en un mismo
punto mediante las dos aproximaciones A
k
y A
k1
y que se cumpla
adem as que A
k
(x
k
x
k1
) = f(x
k
) f(x
k1
).
La matriz que cumple ese prop osito es:
A
k
= A
k1
+
(y
k1
A
k1
s
k1
)s
T
k1
s
T
k1
s
k1
Esta expresi on se denomina f ormula de Broyden. La convergencia
del m etodo a que da lugar es superlineal.
18/49

Ant.
El algoritmo para resolver f : R
n
R
n
mediante el m etodo con la
f ormula de Broyden es el que sigue.
Paso 0 Denir un x
0
R
n
y una A
0
R
nn
; hacer k = 1 y x
k
x
0
.
Paso 1 Determinar la soluci on de A
k
s
k
= f(x
k
).
Paso 2 Si |[f(x
k
)|
2
< Tol, PARAR: el problema est a resuelto.
Si > Tol, hacer: x
k+1
x
k
+ s
k
y
k
f(x
k+1
) f(x
k
)
A
k+1
A
k
+
(y
k
A
k
s
k
)s
T
k
s
T
k
s
k
k k + 1
y volver al paso 1.
Para determinar la A
0
que se cita en el algoritmo se puede emplear
cualquier aproximaci on, por ejemplo, diferencias nitas.
19/49

Ant.
Ejemplo
Resolvamos una vez m as, partiendo del punto [1, 1, 1]
T
, esta vez
utilizando el m etodo de Newton con la f ormula de Broyden, el siguiente
sistema de ecuaciones no lineales:
3x
1
cos(x
2
x
3
)
1
2
= 0
x
2
1
81
_
x
2
+
1
10
_
2
+ sen(x
3
) + 1,06 = 0
e
x
1
x
2
+ 20x
3
+
10 3
3
= 0.
El programa de Matlab del m etodo basado en la f ormula de Broyden
que se utiliza es el que sigue a continuaci on.
Como matriz inicial A
0
se utiliza la que tiene como unicos elementos
distintos de cero los de la diagonal de la Jacobiana en el punto de
partida.
20/49

Ant.
function Broyden_1
% Metodo cuasi Newton con la formula de Broyden
tol=sqrt(eps); n=3; x=[1;1;1]; dnor=1.0; J=zeros(n,n); f=fx(x);
J(1,1)=3; J(2,2)=-178.2; J(3,3)=20;
while dnor>tol
f1=f;
p=J\f;
x1=x-p;
f=fx(x1);
dnor=norm(f);
fprintf( %15.10e %15.10e %15.10e %15.10e\n,x,dnor);
y=f-f1;
J=broy(J,y,p);
x=x1;
end
function f=fx(x)
f(1) = 3
*
x(1)-cos(x(2)
*
x(3))-0.5;
f(2) = x(1)2-81
*
(x(2)+0.1)2+sin(x(3))+1.06;
f(3) = exp((-x(1)
*
x(2)))+20
*
x(3)+(10
*
pi-3)/3;
function J=broy(J,y,p)
prod=p
*
p;
J=J-(1/prod)
*
f
*
p; % igual que J=J-(1/prod)
*
(y+J
*
p)
*
p ver Quarteroni p.289
21/49

Ant.
El proceso de convergencia hasta la soluci on que se registra con este
c odigo es el de la tabla.
k x
1
x
2
x
3
|f(x
k
)|
2
1 3,467674352893799E-1 4,662821024806326E-01 -4,919927476568708E-1 25,275175252053120
2 4,921232306763561E-1 3,236527849976335E-01 -5,162769886149683E-1 13,729480399369230
3 4,993486752210201E-1 2,131483731754155E-01 -5,166714279059975E-1 7,127754268893964
4 5,011649166344201E-1 9,690341763001632E-02 -5,210585843043458E-1 2,327087146316625
5 5,003080441638231E-1 4,279330810076126E-02 -5,224749127576461E-1 8,403043972608411E-01
6 5,001066711564305E-1 1,172102964534057E-02 -5,232913081815899E-1 2,006362866054586E-01
7 5,000183047478762E-1 2,032314047074978E-03 -5,235457794542374E-1 3,319399780484372E-02
8 5,000009846717887E-1 1,115674463108231E-04 -5,235958520108367E-1 1,804970096278442E-03
9 5,000000108711760E-1 1,033227841870006E-06 -5,235987485509558E-1 1,678549255880026E-05
10 5,000000000415024E-1 6,118437770431628E-10 -5,235987755897009E-1 9,122344458875651E-08
11 4,999999999986228E-1 -5,059011531347285E-09 -5,235987757245316E-1 4,849895176081806E-10
u
22/49

Ant.
Implementaci on m as pr actica del m etodo de Broyden
El m etodo adapta de iteraci on en iteraci on la matriz A y no la A
1
: por
qu e no partir de una A
1
0
y readaptar A
1
?
Lema 2 (F ormula de modicaci on de Sherman-Morrison-Woodbury) (a)
Si A es una matriz regular n n y u y v dos vectores cualesquiera de R
n
,
A + uv
T
es regular si y s olo si w = 1 + v
T
A
1
u ,= 0. (b) En este caso,
adem as,
_
A+ uv
T
_
1
= A
1

_
1
w
_
A
1
uv
T
A
1
.
La nueva f ormula de Broyden para las matrices A
1
k
es:
A
1
k+1
= A
1
k
+
_
s
k
A
1
k
y
k
_
s
T
k
A
1
k
s
T
k
A
1
k
y
k
.
23/49

Ant.

Indice
Introducci on
Sistemas de una ecuaci on y una variable
M etodo de la bisecci on
M etodo de Newton
Variantes del m etodo de Newton
M etodo de M uller
Sistemas de ecuaciones no lineales
M etodo de Newton-Raphson
Variantes del m etodo de Newton
M etodos cuasi Newton
Mnimos cuadrados no lineales
24/49

Ant.
Mnimos cuadrados no lineales
El problema no lineal de mnimos cuadrados consiste en encontrar el
mnimo global de la suma de los cuadrados de m funciones no lineales;
es decir,
minimizar
xR
n
f(x) =
1
2
m

i=1
r
2
i
(x) =
1
2
|r(x)|
2
2
,
donde r(x) : R
n
R
m
= [r
1
(x), . . . , r
m
(x)]
T
es el vector de residuos
y cada r
i
(x), i = 1, . . . , m, m n, es una funci on no lineal de R
n
en R.
Este problema surge de la imposibilidad de encontrar la soluci on al
sistema de ecuaciones no lineales r(x) = 0 y, en consecuencia, tratar
de encontrar una pseudosoluci on que mejor la aproxime de acuerdo
con la norma eucldea.
Si m = n, evidentemente, se tiene un caso especial de sistemas de
ecuaciones no lineales.
25/49

Ant.
Las t ecnicas que estudiamos se aplican esencialmente al ajuste de
funciones a datos diversos.
Se trata de aproximar a unos datos dados, denidos por ejemplo por
un par y
i
(valor) y t
i
(tiempo), (y
i
, t
i
), i = 1, . . . , m, una funci on o
modelo f(x, t) no lineal.
Si r
i
(x) representa el error en la predicci on que hace el modelo de
la observaci on i,
r
i
(x) = y
i
f(x, t
i
), i = 1, . . . , m,
y se quiere minimizar la suma de los cuadrados de las desviaciones
entre los valores reales y los predichos con el modelo, se llega a un
problema del tipo planteado.
26/49

Ant.
Estimaci on del estado de sistemas
el ectricos
La estimaci on del estado es, en sentido abstracto, el proceso por el
cual se determina el valor del vector de variables de estado de un
sistema, bas andose en unas medidas efectuadas al mismo conforme a
diversos criterios.
Estas medidas no se realizan, usualmente, con precisi on absoluta,
debido a la imperfecci on operativa de los aparatos que las registran, si
bien suelen tener un grado de redundancia apreciable por lo que el
proceso de estimaci on se basa en maximizar o minimizar unos criterios
estadsticos determinados.
El criterio m as usado es sin duda el de minimizar la suma de los
cuadrados de las desviaciones entre los valores reales medidas y los
estimados.
27/49

Ant.
En la operaci on, an alisis y planicaci on de sistemas el ectricos de
energa, uno de los problemas de m as relevancia t ecnica y
econ omica es el de la estimaci on del estado de funcionamiento del
sistema de generaci on y transporte.
28/49

Ant.
Para estimar el estado del sistema se instalan unos aparatos de medida
que proporcionan el valor de magnitudes fsicas relativas al mismo:
tensiones en diversos puntos, ujos de potencia activa y reactiva por
elementos de transporte, potencias activa y reactiva inyectadas, etc.
Si todas estas medidas fuesen correctas con precisi on total y dado que
el sistema funciona, las relaciones matem aticas que plasman las leyes
fsicas que rigen su funcionamiento permitiran determinar la soluci on a
ese estado de funcionamiento de forma unica.
Los errores aleatorios que incorporan los aparatos de medida
introducen una incompatibilidad matem atica en aquellas relaciones,
por lo que el c alculo de la soluci on no es posible teniendo que
sustituirse por una estimaci on.
El n umero de medidas que se efect ua suele ser varias veces superior al
estrictamente necesario para determinar el estado con el n de
aumentar la bondad de la estimaci on as como poder identicar
mediciones err oneas.
29/49

Ant.
En la gura se ha aumentado el detalle de tres nudos a n de ilustrar
una disposici on tpica de aparatos de medida en un sistema el ectrico de
generaci on y transporte para estimar su estado de funcionamiento.
30/49

Ant.
Si se supone que los par ametros fsicos del sistema el ectrico
permanecen constantes, existen cuatro variables asociadas a cada
nudo i del sistema: la tensi on, en m odulo, V
i
, y argumento
i
; la
potencia activa inyectada, P
i
, y la potencia reactiva inyectada, Q
i
.
Las potencias inyectadas dependen de la tensi on en el propio nudo i y
en los a el unidos. Las expresiones que las relacionan, en ausencia de
transformadores conectados al nudo i, est an denidas por:
P
i
= [V
i
[
2
n

j=1
j=i
_
G
p
ij
+ G
s
ij
_
[V
i
[
n

j=1
j=i
[V
j
[
_
G
s
ij
cos(
i

j
) + B
s
ij
sen(
i

j
)

Q
i
= [V
i
[
2
n

j=1
j=i
_
B
p
ij
+ B
s
ij
_
[V
i
[
n

j=1
j=i
[V
j
[
_
G
s
ij
sen(
i

j
) B
s
ij
cos(
i

j
)

donde: V
i
es el m odulo de la tensi on en el nudo i;

i
el argumento de la tensi on en el nudo i;
G
s
ij
la conductancia serie (constante) de la lnea que une el nudo i con
el nudo j;
G
p
ij
la conductancia a tierra (constante) de la lnea que une el nudo i
con el j;
B
s
ij
la susceptancia serie (constante) de la lnea que une el nudo i con
el nudo j; y
B
p
ij
la susceptancia a tierra (constante) de la lnea que une el nudo i
con el j.
31/49

Ant.
Si un nudo tiene alg un condensador o reactancia conectado a el, B
p
ij
deber a englobar la del condensador/reactancia y las de tierra de las
lneas conectadas a ese nudo.
Entre los nudos i y j de una red, los ujos de potencias activa y reactiva
est an dados por:
P
ij
= [V
i
[
2
G
s
ij
[V
i
[[V
j
[G
s
ij
cos(
i

j
) [V
i
[[V
j
[B
s
ij
sen(
i

j
) +[V
i
[
2
G
p
ij
Q
ij
= [V
i
[
2
B
s
ij
[V
i
[[V
j
[G
s
ij
sen(
i

j
) +[V
i
[[V
j
[B
s
ij
cos(
i

j
) [V
i
[
2
B
p
ij
.
32/49

Ant.
En t erminos matem aticos, si se tiene una muestra b
1
, b
2
, . . . , b
m
determinada por las medidas de los aparatos, el sistema de ecuaciones
que relaciona estas mediciones con las variables de estado
x
1
, x
2
, . . . , x
n
, se puede expresar como
f
1
(x
1
, x
2
, . . . , x
n
) = b
1
f
2
(x
1
, x
2
, . . . , x
n
) = b
2
.
.
.
f
m
(x
1
, x
2
, . . . , x
n
) = b
m
,
(2)
donde m n.Se supone que los componentes de la funci on vectorial
f(x) son exactos.
Este sistema, debido a la imprecisi on de los aparatos de medida antes
comentada, es matem aticamente incompatible, aunque esta
incompatibilidad suele ser muy peque na, pues los errores en
condiciones normales son peque nos.
33/49

Ant.
Para el ejemplo de la gura anterior, tomando
1
= 0 como referencia de
angulos, los par ametros que denen el sistema son los de la tabla.
b x f(x)
V
1
V
2
P
1
Q
1
P
2
P
3
Q
3
P
12
Q
12
P
21
Q
21
P
23
Q
23
V
1
V
2

2
V
3

3
V
1
V
2
V
2
1

j=2,3
(G
p
1j
+ G
s
1j
) V
1

j=2,3
V
j
(G
1j
cos(
1

j
) + B
1j
sen(
1

j
))
V
2
1

j=2,3
(B
p
1j
+ B
s
1j
) V
1

j=2,3
V
j
(G
1j
sen(
1

j
) B
1j
cos(
1

j
))
V
2
2

j=1,3
(G
p
2j
+ G
s
2j
) V
2

j=1,3
V
j
(G
2j
cos(
2

j
) + B
2j
sen(
2

j
))
V
2
3

j=1,2
(G
p
3j
+ G
s
3j
) V
3

j=1,2
V
j
(G
3j
cos(
3

j
) + B
3j
sen(
3

j
))
V
2
3

j=1,2
(B
p
3j
+ B
s
3j
) V
3

j=1,2
V
j
(G
3j
sen(
3

j
) B
3j
cos(
3

j
))
V
2
1
G
s
12
V
1
V
2
(G
s
12
cos(
1

2
) + B
s
12
sen(
1

2
)) + V
2
1
G
p
12
V
2
1
B
s
12
V
1
V
2
(G
s
12
sen(
1

2
) B
s
12
sen(
1

2
)) V
2
1
B
p
12
V
2
2
G
s
21
V
1
V
2
(G
s
21
cos(
2

1
) + B
s
21
sen(
2

1
)) + V
2
2
G
p
21
V
2
2
B
s
21
V
1
V
2
(G
s
21
sen(
2

1
) B
s
21
sen(
2

1
)) V
2
2
B
p
21
V
2
2
G
s
23
V
2
V
3
(G
s
23
cos(
2

3
) + B
s
23
sen(
2

3
)) + V
2
2
G
p
23
V
2
2
B
s
23
V
2
V
3
(G
s
23
sen(
2

3
) B
s
23
sen(
2

3
)) V
2
2
B
p
23
34/49

Ant.
Al no poder calcular la soluci on exacta del sistema, por no existir, es
necesario denir un criterio, m etrica o estimador en R
n
que permita
encontrar otra soluci on o pseudosoluci on lo m as pr oxima a aquella.
Los estimadores m as usados son el de mnimos cuadrados y el de
m axima verosimilitud.
El estimador de mnimos cuadrados elige como criterio de
aproximaci on de la soluci on
(x
1
, x
2
, . . . , x
n
) =
m

i=1
(b
i
f
i
(x
1
, x
2
, . . . , x
n
))
2
por ser esta una funci on continua, diferenciable y de estructura
matem atica rica. El estimador de los par ametros que se elige es aquel
que hace mnima la funci on (x
1
, x
2
, . . . , x
n
); es decir,
minimizar
xR
n
(x).
35/49

Ant.
El de m axima verosimilitud es id entico al de mnimos cuadrados
cuando los errores que afectan a las mediciones tienen una distribuci on
de probabilidad N(0, ) ambos convergen en probabilidad a x, son
asint oticamente normales y consistentes para m .
Si un determinado aparato suministra la medida b, siendo b
real
la que
debera dar si la precisi on de la medici on fuese total, se tendr a que
b = b
real
+ ,
donde es el error aleatorio propio del aparato de medida.
Si no est a sesgado, la funci on de densidad de probabilidad que se
puede utilizar para describirlo es la de la distribuci on normal de media
cero y desviaci on tpica , es decir,
FDP() =
1

2
e

2
2
2
.
36/49

Ant.
Como la media de se supone cero, la media de la realizaci on b es b
real
.
La funci on de densidad de probabilidad de b es
FDP(b) =
1

2
e

(b b
real
)
2
2
2
.
Si se tiene un vector de m medidas b, cada componente del cual
presenta una funci on de densidad de probabilidad semejante a la
descrita, la funci on de densidad de probabilidad conjunta de la muestra
aleatoria b
1
, . . . , b
m
, supuestas todas las medidas independientes unas
de otras, es
FDP(b
1
, . . . , b
m
) = FDP(b
1
) FDP(b
2
) FDP(b
m
) =
m

i=1
FDP(b
i
).
A esta funci on de densidad de probabilidad conjunta se la denomina
verosimilitud de los par ametros (los b
real
i
) y se designa por
L(b
real
1
, . . . , b
real
m
) = L(b
real
).
37/49

Ant.
De lo que se trata es de hacer m axima la probabilidad (verosimilitud) de
que se obtenga la muestra que realmente se ha obtenido: b:
Hacer m axima
L(b
real
) =
m

i=1
_
1

2
_
e

i=1
(b
i
b
real
i
)
2
2
2
i
,
o, lo que es lo mismo, ln L(b
real
).
Ahora bien, maximizar la funci on ln L(b
real
) es lo mismo que
maximizar
_

i=1
ln(
i

2)
m

i=1
(b
i
b
real
i
)
2
2
2
i
_
.
Como

m
i=1
ln(
i

2) es constante, este ultimo problema


equivale a
minimizar
_
m

i=1
(b
i
b
real
i
)
2
2
2
i
_
.
38/49

Ant.
Los par ametros b
real
no son independientes entre s; est an relacionados
a trav es de las variables de estado por la funci on no lineal antes
mencionada
b
real
= f(x),
donde x es el vector de variables de estado recordemos, tensiones en
los nudos de la red y tomas de los transformadores con regulaci on.
El problema expresado en forma matricial resulta
minimizar
xR
n
[b f(x)]
T

1
[b f(x)] ,
donde la matriz
=
_
_

2
1
.
.
.

2
m
_
_
es la matriz de covarianzas de las mediciones.
39/49

Ant.
Como esta matriz es denida positiva su inversa se puede expresar de
la forma
1
= W
T
W, dando lugar a un planteamiento del problema
de la forma
minimizar
xR
n
|W(b f(x))|
2
2
,
id entico en estructura al que plante abamos con el estimador de
mnimos cuadrados.
40/49

Ant.
Resoluci on num erica del problema
Se trata de resolver el sistema de m ecuaciones y n inc ognitas (m > n)
r(x) = 0,
en general incompatible.
Como se hizo cuando m = n, es natural aproximar r(x) por el modelo
lineal que dene el desarrollo en serie de Taylor alrededor de un
punto x
k
, trunc andolo a partir de los t erminos de segundo orden:
M
k
(x) = r(x
k
) + J(x
k
)(x x
k
).
El sistema lineal M
k
(x) = 0 ser a en general incompatible.
La soluci on del problema lineal de mnimos cuadrados
mn.
xR
n|M
k
(x)|
2
se puede usar iterativamente para aproximarse
m as y m as a la soluci on del problema no lineal.
41/49

Ant.
M etodo de Gauss-Newton
Este m etodo est a basado en la resoluci on de una sucesi on de
aproximaciones lineales de r(x) de acuerdo con el algoritmo de la tabla.
Paso 0 Denir un x
0
; hacer k = 1 y x
k
x
0
.
Paso 1 Determinar mn.
xR
n|r(x
k
) + J(x
k
)(x x
k
)|
2
.
Paso 2 Si x x
k
< Tol, parar: el problema est a resuelto;
si no, hacer k = k + 1, x
k
= x e ir al paso 1.
Cada uno de los subproblemas del paso 1 es un problema lineal de
mnimos cuadrados del tipo
minimizar
xR
n
|Ax b|
2
.
42/49

Ant.
La soluci on de esos subproblemas una direcci on de descenso como
sabemos, si J(x
k
) es de rango completo, est a dada por
p
k
= xx
k
=
_
J(x
k
)
T
J(x
k
)
_
1
J(x
k
)
T
r(x
k
).
Para su obtenci on num erica no conviene utilizar las ecuaciones
normales, por su posible mal condicionamiento num erico, sino alg un
m etodo basado en transformaciones ortogonales que factorice la matriz
J(x
k
) en la forma QR.
Si J(x
k
) no tiene rango completo, p
k
debe ser aquel de entre todas las
soluciones existentes que tenga norma mnima; concretamente:
p
k
= J(x
k
)

r(x
k
).
En condiciones adecuadas, la sucesi on de puntos que genera el
m etodo de Gauss-Newton converge cuadr aticamente a x

.
43/49

Ant.
Ejemplo
Se desea utilizar el m etodo Gauss-Newton para determinar los
par ametros x
1
y x
2
de la funci on e
x
1
+tx
2
que mejor se ajuste a los pares
de puntos
(t
i
, y
i
) = (2, 1/2), (1, 1), (0, 2), (1, 4).
La funci on r(x) es en este caso de R
2
en R
4
. Su matriz Jacobiana es
J(x) =
_

_
e
x
1
2x
2
2e
x
1
2x
2
e
x
1
x
2
e
x
1
x
2
e
x
1
0
e
x
1
+x
2
e
x
1
+x
2
_

_
.
Si se parte de x
0
= [1, 1]
T
, el c odigo en MATLAB que lo resuelve, es el
que sigue. La soluci on es
x =
_
ln 2
ln 2
_
.
44/49

Ant.
function GN111 % Gauss-Newton
tol=sqrt(eps); x=[1;1]; dnor=1.0;
while dnor>tol
p=jac(x)\fx(x);
x=x-p;
dnor=norm(p,inf)/norm(x,inf);
s=norm(fx(x))2;
fprintf( %15.10e %15.10e %15.10e %15.10e\n,x,s,dnor);
end
function f=fx(x)
f(1)=exp(x(1)-2
*
x(2))-0.5;
f(2)=exp(x(1)-1.0
*
x(2))-1.0;
f(3)=exp(x(1))-2.0;
f(4)=exp(x(1)+x(2))-4.0;
function J=jac(x)
J(1,1)=exp(x(1)-2.0
*
x(2)); J(1,2)=-2
*
exp(x(1)-2
*
x(2));
J(2,1)=exp(x(1)-x(2)); J(2,2)=-exp(x(1)-x(2));
J(3,1)=exp(x(1)); J(3,2)=0;
J(4,1)=exp(x(1)+x(2)); J(4,2)=exp(x(1)+x(2));
Los puntos del proceso iterativo que se obtienen son los de la tabla.
k x
1
x
2
|r|
2
2
|x
k
x
k1
|

/|x
k
|

1 7,5406407460540E-1 7,8581936682613E-1 4.6113768156e-01 3.1296749716e-1


2 6,9782818348320E-1 6,9931189327404E-1 2.0073845116e-03 1.2370370632e-1
3 6,9317290130691E-1 6,9317774998543E-1 5.3683607855e-08 8.8493084521e-3
4 6,9314718125839E-1 6,9314718138758E-1 3.9452570113e-17 4.4101156284e-5
5 6,9314718055994E-1 6,9314718055994E-1 8.0118685687e-31 1.1940287961e-9
45/49

Ant.
M etodo de Levenberg-Marquardt
Esto m etodo se desarroll o para evitar las dicultades que el m etodo
de Gauss-Newton experimenta cuando a lo largo del proceso
iterativo, en alg un punto, la matriz Jacobiana no tiene rango
completo o est a mal condicionada.
Para ello Levenberg [1944] y Marquardt [1963] propusieron calcular la
direcci on p
k
= x x
k
mediante la resoluci on del subproblema
minimizar
p
k
R
n
_
|r(x
k
) + J(x
k
)p
k
|
2
2
=
k
|p
k
|
2
2
_
,
donde el par ametro
k
controla y limita el tama no de p
k
.
Se puede demostrar que la soluci on de este subproblema es
p = (J(x
k
)
T
J(x
k
) +
k
I)
1
J(x
k
)
T
r(x
k
).
46/49

Ant.
Una variante sencilla del algoritmo de Levenberg-Marquardt es esta.
Paso 0 Denir un x
0
R
n
; hacer = 0,1, k = 1 y x
k
x
0
.
Paso 1 Calcular p
k
= (J(x
k
)
T
J(x
k
) + I)
1
J(x
k
)
T
r(x
k
).
Paso 2 if (|r(x
k
+ p
k
)|
2
2
< |r(x
k
)|
2
2
) then
si p
k
Tol, parar: problema resuelto.
si p
k
> Tol, hacer: /10
k k + 1
x
k+1
x
k
+ p
y volver al paso 1.
else
10
Volver al paso 1 sin tener que calcular J(x
k
).
end
47/49

Ant.
Ejemplo
Utilizando el m etodo de Levenberg-Marquardt, ajustar a la funci on
f(x) =
b
1
1 + b
2
e
tb
3
el conjunto de puntos de la tabla.
t
i
y
i
t
i
y
i
1 5,308 7 31,443
2 7,24 8 38,558
3 9,638 9 50,156
4 12,866 10 62,948
5 17,069 11 75,995
6 23,192 12 91,972
A partir de x
0
= [200, 30, 0,4]
T
, el c odigo en Matlab que lo resuelve es
el que sigue.
48/49

Ant.
function Levmar % Levenberg-Marquardt
m=12; n=3; x=[200;30;-0.4]; mu=0.1; J=zeros(m,n);
jtj=zeros(n,n); dnor=1; f=fx(x);
tol=sqrt(eps)
*
norm(x,inf);
while dnor>tol
f=fx(x);
J=derf(x);
jtj=J
*
J;
res=norm(f)2;
b=J
*
f;
for kk=1:5
a=jtj+mu
*
eye(n);
s=a\b;
b=x-s;
f1=fx(b);
res1=norm(f1)2;
if res1<res
x=b;
f=f1;
dnor=norm(s,inf)/norm(x,inf);
fprintf(%15.10e %15.10e %15.10e %15.10e ...
%15.10e %15.10e\n, x,res1,mu,dnor);
mu=mu/10;
break
else
mu=mu
*
10;
end
end
end
function f=fx(x)
f=zeros(12,1);
f(1) = x(1)/(1+x(2)
*
exp(x(3)))-5.308;
f(2) = x(1)/(1+x(2)
*
exp(2
*
x(3)))-7.24;
f(3) = x(1)/(1+x(2)
*
exp(3
*
x(3)))-9.638;
f(4) = x(1)/(1+x(2)
*
exp(4
*
x(3)))-12.866;
f(5) = x(1)/(1+x(2)
*
exp(5
*
x(3)))-17.069;
f(6) = x(1)/(1+x(2)
*
exp(6
*
x(3)))-23.192;
f(7) = x(1)/(1+x(2)
*
exp(7
*
x(3)))-31.443;
f(8) = x(1)/(1+x(2)
*
exp(8
*
x(3)))-38.558;
f(9) = x(1)/(1+x(2)
*
exp(9
*
x(3)))-50.156;
f(10) = x(1)/(1+x(2)
*
exp(10
*
x(3)))-62.948;
f(11) = x(1)/(1+x(2)
*
exp(11
*
x(3)))-75.995;
f(12) = x(1)/(1+x(2)
*
exp(12
*
x(3)))-91.972;
function J=derf(x)
J(1,1) = 1/(1+x(2)
*
exp(x(3)));
J(1,2) = -x(1)
*
exp(x(3))/(1+x(2)
*
exp(x(3)))2;
J(1,3) = -x(1)
*
x(2)
*
exp(x(3))/(1+x(2)
*
exp(x(3)))2;
J(2,1) = 1/(1+x(2)
*
exp(2
*
x(3)));
J(2,2) = -x(1)
*
exp(2
*
x(3))/(1+x(2)
*
exp(2
*
x(3)))2;
J(2,3) = -x(1)
*
x(2)
*
exp(2
*
x(3))
*
2/(1+x(2)
*
exp(2
*
x(3)))2;
J(3,1) = 1/(1+x(2)
*
exp(3
*
x(3)));
J(3,2) = -x(1)
*
exp(3
*
x(3))/(1+x(2)
*
exp(3
*
x(3)))2;
J(3,3) = -x(1)
*
x(2)
*
exp(3
*
x(3))
*
3/(1+x(2)
*
exp(3
*
x(3)))2;
J(4,1) = 1/(1+x(2)
*
exp(4
*
x(3)));
J(4,2) = -x(1)
*
exp(4
*
x(3))/(1+x(2)
*
exp(4
*
x(3)))2;
J(4,3) = -x(1)
*
x(2)
*
exp(4
*
x(3))
*
4/(1+x(2)
*
exp(4
*
x(3)))2;
J(5,1) = 1/(1+x(2)
*
exp(5
*
x(3)));
J(5,2) = -x(1)
*
exp(5
*
x(3))/(1+x(2)
*
exp(5
*
x(3)))2;
J(5,3) = -x(1)
*
x(2)
*
exp(5
*
x(3))
*
5/(1+x(2)
*
exp(5
*
x(3)))2;
J(6,1) = 1/(1+x(2)
*
exp(6
*
x(3)));
J(6,2) = -x(1)
*
exp(6
*
x(3))/(1+x(2)
*
exp(6
*
x(3)))2;
J(6,3) = -x(1)
*
x(2)
*
exp(6
*
x(3))
*
6/(1+x(2)
*
exp(6
*
x(3)))2;
J(7,1) = 1/(1+x(2)
*
exp(7
*
x(3)));
J(7,2) = -x(1)
*
exp(7
*
x(3))/(1+x(2)
*
exp(7
*
x(3)))2;
J(7,3) = -x(1)
*
x(2)
*
exp(7
*
x(3))
*
7/(1+x(2)
*
exp(7
*
x(3)))2;
J(8,1) = 1/(1+x(2)
*
exp(8
*
x(3)));
J(8,2) = -x(1)
*
exp(8
*
x(3))/(1+x(2)
*
exp(8
*
x(3)))2;
J(8,3) = -x(1)
*
x(2)
*
exp(8
*
x(3))
*
8/(1+x(2)
*
exp(8
*
x(3)))2;
J(9,1) = 1/(1+x(2)
*
exp(9
*
x(3)));
J(9,2) = -x(1)
*
exp(9
*
x(3))/(1+x(2)
*
exp(9
*
x(3)))2;
J(9,3) = -x(1)
*
x(2)
*
exp(9
*
x(3))
*
9/(1+x(2)
*
exp(9
*
x(3)))2;
J(10,1) = 1/(1+x(2)
*
exp(10
*
x(3)));
J(10,2) = -x(1)
*
exp(10
*
x(3))/(1+x(2)
*
exp(10
*
x(3)))2;
J(10,3) = -x(1)
*
x(2)
*
exp(10
*
x(3))
*
10/(1+x(2)
*
exp(10
*
x(3)))2;
J(11,1) = 1/(1+x(2)
*
exp(11
*
x(3)));
J(11,2) = -x(1)
*
exp(11
*
x(3))/(1+x(2)
*
exp(11
*
x(3)))2;
J(11,3) = -x(1)
*
x(2)
*
exp(11
*
x(3))
*
11/(1+x(2)
*
exp(11
*
x(3)))2;
J(12,1) = 1/(1+x(2)
*
exp(12
*
x(3)));
J(12,2) = -x(1)
*
exp(12
*
x(3))/(1+x(2)
*
exp(12
*
x(3)))2;
J(12,3) = -x(1)
*
x(2)
*
exp(12
*
x(3))
*
12/(1+x(2)
*
exp(12
*
x(3)))2;
49/49

Ant.
La matriz jacobiana se ha calculado analticamente. Cuando la
complejidad del c alculo de esta matriz es mayor, se puede aproximar
por diferencias nitas.
Los puntos del proceso iterativo que se obtienen son los de la tabla.
k x
1
x
2
x
3
|r|
2
2
|x
k
x
k1
|

/|x
k
|

1 172,054602169 27,576875139 -2,852439035E-1 225,726827415 1,0E-1 1,624216E-1


2 180,427478579 40,906816931 -3,173500543E-1 85,897325602 1,0E-2 7,387977E-2
3 190,598767569 47,354495934 -3,150142518E-1 3,211830744 1,0E-3 5,336492E-2
4 195,701854540 48,994138800 -3,137199088E-1 2,589465629 1,0E-4 2,607582E-2
5 196,177702377 49,090471766 -3,135736444E-1 2,587278602 1,0E-5 2,425595E-3
6 196,186188183 49,091630737 -3,135697714E-1 2,587278212 1,0E-6 4,325384E-5
7 196,186260992 49,091641855 -3,135697367E-1 2,587278212 1,0E-7 3,711204E-7
8 196,186261646 49,091641954 -3,135697364E-1 2,587278212 1,0E-8 3,337921E-9
u