Está en la página 1de 558

Notas del Curso

Mtodos de Diseo para Sistemas No


Lineales
Jaime A. Moreno
Universidad Nacional Autnoma de Mxico (UNAM)
Instituto de Ingeniera, Mxico D.F.,Mxico
Email: JMorenoP@ii.unam.mx
12 de Marzo de 2013

ii

ndice general
I

Algunas propiedades de sistemas

1. Grado Relativo, Forma Normal y Dinmica Cero


2. Forma de Controlador

1
2
33

II

Estabilizacin

121

3. Estabilizacin

122

4. Linealizacin Parcial

147

5. Funciones de Lyapunov de control

170

6. Backstepping

187

7. Control basado en pasividad

218

8. Retroalimentacin de la salida

254

III

269

Estabilizacin Robusta

9. Control por Modos Deslizantes


ii

270

10.Rediseo de Lyapunov (o Control Mini-Max)

305

11.Backstepping robusto

314

IV

Seguimiento

321

12.Seguimiento (Tracking)

322

V Regulacin robusta estructural: Control Integral


335
13.Control Integral

336

iii

VI

Observabilidad y el Diseo de Observadores 352

14.Introduccin

353

VII

358

Observabilidad

15.Sistemas estticos o sin memoria

359

16.Sistemas lineales

376

17.Sistemas con parmetros desconocidos (Identificabilidad)390


18.Sistemas no lineales

393

19.Sistemas con estados y parmetros desconocidos

405

iv

VIII Diseo de Observadores para Sistemas Lineales


409
20.El Observador de Kalman

412

21. El observador de Luenberger

423

22.El principio de separacin lineal

429

IX Diseo de observadores para sistemas no lineales


434
23.Mtodos por aproximacin (linealizacin)

436

24.Mtodos exactos

444

25.Control por retroalimentacin de salida: Observador de


v

Alta Ganancia

477

26.Dissipative Observer Design Method

vi

493

Parte I
Algunas propiedades de
sistemas

Leccin 1
Grado Relativo, Forma Normal
y Dinmica Cero

1.1.

Grado Relativo

Sistema No Lineal SISO (Una Entrada Una Salida) afn en la entrada


x = f (x) + g (x) u
y = h (x)
dnde
f , g, h son suficientemente suaves en un dominio D Rn
f : D ! Rn y g : D ! Rn son campos vectoriales en D

Tomando la derivada temporal de la salida

@h (x)
x
@x
@h (x)
@h (x)
=
f (x) +
g (x) u
@x
@x
, Lf h (x) + Lg h (x) u

y =

dnde

@h (x)
f (x)
@x
es la Derivada de Lie de h con respecto a f o a lo largo de f .
Ntese
@ (Lf h (x))
Lg Lf h (x) =
g (x)
@x
@ (Lf h (x))
L2f h (x) = Lf Lf h (x) =
f (x)
@x
@ Lkf 1 h (x)
k 1
k
Lf h (x) = Lf Lf h (x) =
f (x)
@x
y se define por convencin
Lf h (x) =

L0f h (x) = h (x)


Luego
y = Lf h (x) + Lg h (x) u
4

Si
Lg h (x) = 0
entonces
y = Lf h (x)
La primera derivada de la salida no depende de la entrada u. Tomando
una derivada (con respecto al tiempo) adicional de la salida
@ (Lf h (x))
[f (x) + g (x) u]
@x
= L2f h (x) + Lg Lf h (x) u

y (2) = y =

Si
Lg Lf h (x) = 0
+

y (2) = L2f h (x)


5

Derivamos con respecto al tiempo una vez ms


@ L2f h (x)
[f (x) + g (x) u]
@x
= L3f h (x) + Lg L2f h (x) u

y (3) =

Si
Lg L2f h (x) = 0
y

(3)

= L3f h (x)

Generalizando: Si
Lg Lif 1 h (x) = 0 , i = 1, 2, . . . ,

1;

Lg Lf 1 h (x) 6= 0
+

y (i) = Lif h (x) , i = 1, 2, . . . ,


y

()

Lf h (x)

1;

Lg Lf 1 h (x) u

Definicin 1.1 El sistema SISO


x = f (x) + g (x) u
y = h (x)
tiene grado relativo , 1 n, en D0 D Rn si 8x 2 D0
Lg Lif 1 h (x) = 0 , i = 1, 2, . . . ,
Lg Lf 1 h (x)

6= 0

1;

Ejemplo 1.2
x 1 = x2
x 2 = x1 + " (1
y = x1

x21 ) x2 + u , " > 0

y = x 1 = x2
y = x 2 =

x1 + " 1

x21 x2 + u

Grado relativo = 2 sobre R2


Ejemplo 1.3
x 1 = x2
x 2 = x1 + " (1
y = x2
y = x 2 =
Grado relativo = 1 sobre R2

x21 ) x2 + u , " > 0

x1 + " 1
8

x21 x2 + u

Ejemplo 1.4
x 1 = x2
x 2 = x1 + " (1
y = x1 + x22
y = x 1 + 2x2 x 2 = x2

x21 ) x2 + u , " > 0

2x1 x2 + 2" 1

x21 x22 + 2x2 u

Grado relativo = 1 sobre D0 = {x 2 R2 | x2 6= 0}


Ejemplo 1.5 Motor de corriente directa controlado por campo
x 1 = ax1 + u
x 2 = bx2 + k
x 3 = x1 x2
y = x3

cx1 x3

a, b, c, k, son constantes positivas


9

y = x 3 = x1 x2
y = x 1 x2 + x1 x 2
= [ ax1 x2 + x1 ( bx2 + k

cx1 x3 )] + x2 u

Grado relativo = 2 sobre D0 = {x 2 R2 | x2 6= 0}

1.2.

Forma Normal

Para el sistema SISO


x = f (x) + g (x) u
y = h (x)

10

con grado relativo , 1 n, en D0 D Rn


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . ,
Lg Lf 1 h (x)

6= 0 ; 8x 2 D0

sea el cambio de variables


2

6
6
6
6
6
z = T (x) = 6
6
6
6
4

(x)
..
.

7
7 2
7
n (x) 7
7 4
7,
h (x) 7
7
7
..
5
.
1
Lf h (x)

(x)
(x)

1 ; 8x 2 D0

5,4

3
5

(x), , n (x) son elegidos de tal forma que T (x) sea un difeomor 0 D0 D.
fismo en un dominio D
11
1

Entonces la dinmica del sistema en las nuevas coordenadas es


= @ @x(x) [f (x) + g (x) u] = f0 (, ) + g0 (, ) u
@Li 1 h(x)
i = f @x
[f (x) + g (x) u]
i
= Lf h (x) + Lg Lif 1 h (x) u = i+1 , 1 i
= Lf h (x) + Lg Lf 1 h (x) u
y = 1
Eljase

(x) tal que T (x) sea un difeomorfismo y


@

(x)
g (x) = 0 , 1 i n
@x
i

0
; 8x 2 D

Comentario 1.6 Esto siempre es posible, al menos localmente


Teorema 1.7 Suponga que el sistema (SISO)
x = f (x) + g (x) u
y = h (x)
12

tiene grado relativo , 1 n, en D0 D Rn .

Si = n entonces, para todo x 2 D0 , existe una vecindad Nx de


x tal que el mapa (x), restringido a Nx , es un difeomorfismo
en Nx .
Si < n entonces, para todo x 2 D0 , existen
una vecindad Nx de x, y
funciones suaves

tales que
y el mapa

(x), ,

(x)

(x)
g (x) = 0 , 1 i n
@x
i

T (x) = 4

13

(x)
(x)

; 8x 2 Nx
3

5 ,

restringido a Nx , es un difeomorfismo en Nx .
En tal caso el sistema en las nuevas coordenadas queda en la Forma
Normal
8
= f0 (, )
>
>
<
i = i+1 , 1 i 1
Forma Normal:
>
= Lf h (x) + Lg Lf 1 h (x) u
>
:
y = 1
o en forma ms compacta

8
< = f0 (, )
Forma Normal:
= Ac + Bc (x) [u
:
y = Cc
14

(x)]

dnde
2

6
6
6
Ac = 6
6
4

0
1
.. . .
.
.
0 0 0
0 0 0
0
0
..
.

1
0
..
.

0
0
..
.

0
0
..
.

0
0
..
.

7
6 7
7
6 7
7
6 7
,
B
=
7
6 7 ,
c
7
6 7
4 0 5
0 1 5
0 0
1

Cc = 1 0 0 0 0
Lf h (x)
1
(x) = Lg Lf h (x) , (x) =
Lg Lf 1 h (x)
Si x es un punto de equilibrio con entrada u = 0, para el cual y = 0, es

15

decir,
f (x ) = 0
h (x ) = 0
+

(x ) = 0
Elija (x) tal que (x ) = 0 y entonces z = 0 es un punto de equilibrio
con entrada u = 0.

1.3.

Dinmica Cero

Sea el sistema SISO en la forma normal


8
< = f0 (, )
= Ac + Bc (x) [u (x)]
:
y = Cc
16

Si la salida es cero durante un intervalo de tiempo t 2 (0, T ) entonces


durante tal intervalo
y (t) 0 =) y (i) (t) 0 , i = 1, 2, =) (t) 0
=) u (t) (x (t)) =) = f0 (, 0)
Definicin 1.8 La ecuacin
= f0 (, 0)
se denomina la Dinmica Cero (DC) del sistema.
Se dice que el sistema de Fase Mnima si la Dinmica Cero tiene un
punto de equilibrio asintticamente estable en el dominio de inters (en
el origen si T (0) = 0).
Comentario 1.9 La Dinmica Cero corresponde a todas las parejas de
condiciones iniciales y entradas al sistema que tienen salida cero. En la
17

Forma Normal esto es especialmente simple:


Si (0 , 0 ) = (0 , 0) y u (t) (x (t)) , dnde

(t)
1
x (t) = T
y
0
(t) = f0 ( (t) , 0) , (0) = 0
+
y (t) 0

Comentario 1.10 En las coordenadas originales la DC puede caracterizarse de la siguiente manera


0 | h (x) = Lf h (x) = = L 1 h (x) = 0
Z = x 2 D
f

Entonces

y (t) 0 =) x (t) 2 Z

=) u (t) = u (x) , (x) |x2Z


18

La dinmica restringida del sistema se describe como


x = f (x) , [f (x) + g (x) (x)]x2Z
Ejemplo 1.11
x 1 = x2
x 2 = x1 + " (1
y = x2
y = x 2 =

x1 + " 1

x21 ) x2 + u , " > 0


x21 x2 + u =) = 1

y (t) 0 =) x2 (t) 0 =) x 1 (t) =) u (t) = x1 (t)

El sistema es de Fase No Mnima


Ejemplo 1.12

2+x2

x 1 = x1 + 1+x32 u
3
x 2 = x3
x 3 = x1 x3 + u
y = x2
19

y = x 2 = x3
y = x 3 = x1 x3 + u =) = 2
(x) = Lg Lf h (x) = 1 , (x) =

Lf h (x)
Lg Lf 1 h (x)

x1 x3

Z = {x2 = x3 = 0}
u = u (x) = 0
x 1 =

x1

El sistema es de Fase Mnima


Cul es la transformacin para llevar al sistema a la Forma Normal?
20

400

4
300

y = x2

x1

3
2
1

200

100
0
1

10

Time (sec)
100

10

10

80

u: input

0.5

x3

60
40

0.5

20
0

Time (sec)

10

Time (sec)

Time (sec)

Figura 1.1: Simulacin con u = sin t, x0 = [5, 0, 0]. Salida y (t) 6= 0.


21

y = x2

0.5

x1

3
2

0.5

1
0

10

0.5

0.5

0.5

10

10

Time (sec)

u: input

x3

Time (sec)

0.5

10

Time (sec)

Time (sec)

Figura 1.2: Simulacin con u = 0, x0 = [5, 0, 0]. Salida y (t) = 0.


22

120

100

y = x2

x1

3
2
1
0

80
60
40
20

10

Time (sec)

10

10

Time (sec)

15

0.5

x3

u: input

10

0.5

10

Time (sec)

Time (sec)

Figura 1.3: Simulacin con u = 0, x0 = [5, 0.1, 0]. Salida y (t) 6= 0.


23

Hay que hallar

(0) = 0 ,

(x) tal que

@ (x)
g (x) =
@x

@ (x)
@x1

@ (x)
@x2

@ (x)
@x3

sea un difeomorfismo.

3
(x)
T (x) = 4 x2 5
x3

2
6
4

@ (x) 2 + x23 @ (x)


@ (x)
g (x) =
+
=0
@x
@x1 1 + x23
@x3
La funcin
(x) =

x1 + x3 + tan
24

x3

2+x23
1+x23

0
1

7
5=0

satisface la EDP y

(0) = 0.
2
3 2

x1 + x3 + tan
4
5
4
x2
T (x) = 1 =
2
x3
2
3
+ 2 + tan3 1 2
5
1
T 1 (z) = 4
2

x3

5,

es un difeomorfismo global. La Forma Normal es entonces

8
2+22
1
>
= ( + 2 + tan 2 ) 1 + 1+2 2
>
>
2
<
1 = 2 ,
>
>
= ( + 2 + tan 1 2 ) 2 + u
>
: 2
y = 1
25

1.4.

El caso lineal SISO

Considere un sistema lineal representado por la funcin de transferencia


b m sm + b m 1 sm 1 + + b 0
N (s)
H (s) =
=
s n + an 1 s n 1 + + a0
D (s)
con m < n y bm 6= 0. Una representacin en variables de estado es
x = Ax + Bu
y = Cx

26

dnde
2
6
6
6
A=6
6
4

C=

0
0
..
.

1
0
..
.

0
1
..
.

...

0
0
..
.

0
0
..
.

0
a0

0
a1

0
a2

0
an

1
an

b0 b1

bm 0

7
7
7
7
7
5

nn

0
0
..
.

6
6
6
, B=6
6
4 0
1

3
7
7
7
7
7
5

,
n1

Para calcular el grado relativo tomamos las derivadas de la salida. La


primera es
y = C x = CAx + CBu .
Si m = n 1 entonces CB = bn 1 6= 0 y el grado relativo es 1. De otra
manera CB = 0 y continuamos tomando la segunda derivada. Ntese
que CA es un vector fila obtenido moviendo los elementos de la matriz
C una posicin hacia la derecha, mietras que CA2 se obtiene moviendo
27

los elementos de C dos posiciones hacia la derecha, y as sucesivamente.


De esta manera se ve que
CAi 1 B = 0 , i = 1, 2, , n

1 , CAn

Entonces u aparece solo en la ecuacin de y (n


y (n

m)

= CAn

x + CAn

m)

m 1

m 1

B = bm 6= 0 .

dada por
Bu

y el grado relativo del sistema es = (n m) = deg D (s) deg N (s),


o sea la diferencia entre el grado del polinomio del denominador y del
polinomio del numerador de H (s).
Usando la divisin Euclidiana se puede escribir D (s) como
D (s) = Q (s) N (s) + R (s) ,
dnde Q (s) es el polinomio cociente y R (s) es el polinomio residuo. Se
sabe adems que
deg Q (s) = n

m = , deg R (s) < m ,


28

y el coeficiente principal de Q (s) es

1
.
bm

Entonces

N (s)
H (s) =
=
Q (s) N (s) + R (s)
1+

1
Q(s)
1 R(s)
Q(s) N (s)

as que H (s) puede representarse como una conexin en retroalimentaR(s)


1
cin negativa, con Q(s)
en el lazo directo y N
en el lazo de retroali(s)
mentacin (Ver Figura 1.4).
1
La funcin de transferencia Q(s)
de orden no tiene ceros y puede
ser realizada mediante el vector de estados

T
= y , y y ( 1)
para obtener el modelo de estados

= Ac + Bc T + Bc bm e
y = Cc
29

Figura 1.4: Lazo de Retroalimentacin.


30

dnde (Ac , Bc , Cc ) es una


integradores, es decir,
2
0 1
6 0 0
6
6
Ac = 6 ... ...
6
4 0 0
0 0

Cc = 1 0
y

forma cannica de representar una cadena de


0
1
.. . .
.
.
0
0

0
0
..
.

0
0
..
.

0
0
..
.

7
6
7
6
7
6
7 , Bc = 6
7
6
4 0
0 1 5
0 0
1

7
7
7
7 ,
7
5

2 R .
Sea (A0 , B0 , C0 ) una representacin mnima de la funcin de transR(s)
ferencia N
, es decir,
(s)
= A0 + B0 y
w = C0
Los valores propios de la matriz A0 son los races del polinomio N (s),
31

que son los ceros de la funcin de transferencia H (s). De la conexin


en retroalimentacin se ve que H (s) puede ser realizado por el modelo
de estado
= A0 + B0 Cc
= Ac + Bc T bm C0 + bm u
y = Cc .
Usando la estructura especial de (Ac , Bc , Cc ) se puede verificar fcilmente que
y () = T bm C0 + bm u .
La dinmica cero (la salida se anula y (t) = 0) consiste en utilizar
las condiciones iniciales (0 , 0 ) = (0, 0 ), y aplicar la entrada
u (t) = C0 (t) ,
dnde
(t) = A0 (t) , (0) = 0 .
32

Leccin 2
Forma de Controlador

33

2.1.

Forma de Controlador

Definicin 2.1 Se dice que un sistema no lineal (con mltiples entradas) est en la Forma de Controlador si
x = Ax + B (x) [u

(x)]

dnde
(A, B) es controlable, A 2 Rnn , B 2 Rnp
(x), con : D Rn ! Rpp , es una matriz no singular para
cada x 2 D Rn .
Comentario 2.2 Ntese que un sistema que est en la Forma de Controlador se puede linealizar exactamente mediante retroalimentacin de
los estados:
Si se elige
u = (x) + 1 (x) v
34

dnde

(x) : Matriz Inversa de (x)


v:
nueva entrada de control

entonces la dinmica del sistema en lazo cerrado es


x = Ax + Bv
que es lineal en los estados y la entrada v.
Definicin 2.3 Se dice que un sistema no lineal
x = f (x) + G (x) u
dnde f : D ! Rn y G : D ! Rnp son suficientemente suaves en un
dominio D Rn , es Linealizable por Retroalimentacin (o Linealizable
Entrada-Estados) si existe un Difeomorfismo T : D ! Rn , tal que
Dz = T (D) contiene el origen, y
35

el cambio de variables z = T (x) transforma al sistema a la Forma


de Controlador.
En el caso de sistemas con una sola entrada (p = 1) se tiene que
Proposicin 2.4 El sistema de dimensin n y con una entrada (p = 1)
x = f (x) + g (x) u
puede ser transformado a la Forma de Controlador mediante una transformacin de estados z = T (x) si y solo si existe una funcin (de salida)
h (x) tal que el sistema SISO
x = f (x) + g (x) u
y = h (x)
tenga grado relativo = n.
36

Prueba. (=: Si el sistema tiene grado relativo = n, entonces se


puede llevar a la Forma Normal, que en este caso se reduce a la Forma
de Controlador
= Ac + Bc () [u ()]
y = Cc
=): Si el sistema se puede transformar a la Forma de Controlador
mediante una transformacin z = S (x), entonces
z = Az + B (z) [u

(z)] .

Como (A, B) es controlable, entonces existe una matriz regular M 2


Rnn tal que
M AM 1 = Ac + Bc
M B = Bc
37

dnde

6
6
6
Ac = 6
6
4

0
1
.. . .
.
.
0 0 0
0 0 0
0
0
..
.

1
0
..
.

Por lo tanto la transformacin

0
0
..
.

0
0
..
.

0
0
..
.

7
6
7
6
7
6
,
B
=
7
6
c
7
6
5
4 0
0 1
0 0
1

7
7
7
7 .
7
5

= M z = M S (x) , T (x)
transforma al sistema a la forma
= Ac + Bc () [u

()]

dnde
(x) = (x) , (x) =
(x)
38

S (x)
.
(x)

Eligiendo
y = Cc = 1 = T1 (x) = h (x)
el sistema tiene Grado Relativo = n.

2.2.

Condiciones de existencia de h (x)

Cmo decidir si existe una funcin suave h (x) tal que


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . , n
Lg Lnf 1 h (x)
y

1 ; 8x 2 D0

6= 0 ; 8x 2 D0
2

6
6
T (x) = 6
4

h (x)
Lf h (x)
..
.

Lnf 1 h (x)
39

3
7
7
7
5

(2.1)

sea un difeomorfismo?

2.2.1.

El parntesis de Lie

Definicin 2.5 El parntesis de Lie de dos campos vectoriales f ,g


es un tercer campo vecotrial definido como
[f, g] (x) =

@g (x)
f (x)
@x

@f (x)
g (x)
@x

Notacin 2.6 Para simplificar la escritura se introduce la siguiente


notacin
ad0f g (x) = g (x)
adf g (x) = [f, g] (x)

adkf g (x) = f, adkf 1 g (x) (x) , k

Propiedades

40

[f, g] =

[g, f ]

Para campos vectoriales constantes f , g, [f, g] = 0


Ejemplo 2.7
f=

x2
sin x1

x2

, g=

0
x1

Entonces

adf g (x) = [f, g] =

x1
=
x1 + x2

0 0
1 0

x2
sin x1

41

x2

0
cos x1

1
1

0
x1

ad2f

2.2.2.

1 0
1 1

x2
g (x) = [f, adf g] =
sin x1

0
1
x1
cos x1
1
x1 + x2

x1 2x2
=
x1 + x2 sin x1 x1 cos x1

x2

Distribuciones

Definicin 2.8 Para los campos vectoriales f1 , f2 , , fk en D Rn


sea
(x) = span {f1 (x) , f2 (x) , , fk (x)}

el espacio vectorial generado por los vectores f1 (x) , f2 (x) , , fk (x).


La coleccin de espacios vectoriales (x) para todo x 2 D se denomina
Distribucin y nos referimos a ella como
= span {f1 , f2 , , fk } .
42

Si la dim ( (x)) = k para todo x 2 D, se dice que


es una
distribucin no singular en D, generada por f1 , f2 , , fk
La distribucin

es involutiva si
g1 2

y g2 2

=) [g1 , g2 ] 2

Lema 2.9 Si es una distribucin no singular en D, generada por


f1 , f2 , , fk entonces es involutiva si y slo si
[fi , fj ] 2
Ejemplo 2.10 D = R3 ;

, 8 1 i, j k

= span {f1 , f2 }
3
2
3
2x2
1
f 1 = 4 1 5 , f2 = 4 0 5
0
x2
2

dim ( (x)) = 2 , 8x 2 D
43

3
0
@f2
@f1
[f1 , f2 ] =
f1
f2 = 4 0 5
@x
@x
1
2
3
2x2 1 0
0 0 5 = 3 , 8x 2 D
rank [f1 (x) , f2 (x) , [f1 , f2 ] (x)] = rank 4 1
0 x2 1
no es involutiva
Ejemplo 2.11 D = {x 2 R3 | x21 + x23 6= 0}; = span {f1 , f2 }
2
3
2
3
2x3
x1
f1 = 4 1 5 , f2 = 4 2x2 5
0
x3
dim ( (x)) = 2 , 8x 2 D
2
3
4x3
@f2
@f1
[f1 , f2 ] =
f1
f2 = 4 2 5
@x
@x
0
44

2x3
4
1
rank [f1 (x) , f2 (x) , [f1 , f2 ] (x)] = rank
0
es involutiva

x1
2x2
x3

3
4x3
2 5 = 2 , 8x 2
0

Teorema 2.12 El sistema de dimensin n con una sola entrada (SI)


x = f (x) + g (x) u
es transformable a la Forma de Controlador si y solo si existe un dominio D0 tal que

1. rank g (x) , adf g (x) , , adnf 1 g (x) = n , 8x 2 D0 , y


2. span g (x) , adf g (x) , , adnf

Ejemplo 2.13
x =

a sin x2
+
x21
45

g (x) es involutiva en D0
0
1

@f
g=
@x

adf g (x) = [f , g] =

a cos x2
0

Ntese que el procedimiento para encontrar difeomorfismo de estados


que transforme al sistema a su forma de controlador consiste en los
siguentes pasos:
* A partir de f y g construir los campos vectoriales
adf g (x) , , adnf

g (x) , adnf

g (x)

y verificar las condiciones (i) y (ii) del teorema.


* Si ambas condiciones son satisfechas, halle h (x) resolviendo el
sistema de ecuaciones diferenciales parciales (2.1).
* Defina
(x) =

Lnf h (x)
Lg Lnf 1 h (x)
46

(x) = Lg Lf h (x) .

* Halle la transformacin
2

6
6
T (x) = 6
4

h (x)
Lf h (x)
..
.

Lnf 1 h (x)

7
7
7 .
5

Ejemplo 2.14 Considere el sistema


2
3 2
3
x3 (1 + x2 )
0
5 + 4 1 + x2 5 u
x = 4 x1
x2 (1 + x1 )
x3

47

32
3
0 0 0
x3 (1 + x2 )
5
adf g (x) = [f , g] = 4 0 1 0 5 4 x1
0 0
1
x2 (1 + x1 )
2
32
3
0 x3
(1 + x2 )
0
4 1 0
5 4 1 + x2 5
0
x2 (1 + x1 ) 0
x3
2
3
0
5
= 4 x1
(1 + 2x2 ) (1 + x1 )

48

0
2
4
adf g (x) = [f , adf g (x)] = 1

0
0

32
3
0
x3 (1 + x2 )
5
0 5 4 x1
2 (1 + x1 ) 0
x2 (1 + x1 )
3

(1 + 2x2 )
32
0 x3
(1 + x2 )
0
4 1 0
5
4
5
0
x1
x2 (1 + x1 ) 0
(1 + 2x2 ) (1 + x1 )
2
3
x1 x3 + (1 + 2x2 ) (1 + x2 ) (1 + x1 )
5
= 4 x3 (1 + x2 )
(1 + 2x2 ) (1 + x2 ) x3 3 (1 + x1 ) x1
2

En x = 0 la matriz

3
0 0
1
0 5
g (x) , adf g (x) , ad2f g (x) = 4 1 0
0
1 0

49

tiene rango 3 y por lo tanto condicin (i) es satisfecha. Ntese que


2
32
3
0
0
0
0
0
0 5 4 1 + x2 5
[g , adf g (x)] = 4 1
(1 + 2x2 )
2 (1 + x1 ) 0
x3
2
32
3
0 0 0
0
4 0 1 0 5 4 x1
5
0 0
1
(1 + 2x2 ) (1 + x1 )
2
3
0
5 .
= 4 x1
(3 + 4x2 ) (1 + x1 )

50

Como el rango de la matriz

g (x) , adf g (x) , [g , adf g (x)] =


2
3
0
0
0
5
x1
= 4 1 + x2 x1
x3
(1 + 2x2 ) (1 + x1 )
(3 + 4x2 ) (1 + x1 )
tiene rango 2 (para puntos cercanos a x = 0), la distribucin
span g (x) , adf g (x)
es involutiva, con lo que la condicin (ii) tambin es satisfecha. En este
caso es fcil ver que una funcin que satisface la ecuacin

dh (x) g (x) , adf g (x) = 0


es

h (x) = x1 .
51

As que la transformacin est dada por


2
3 2
3
h (x)
x1
5 .
x3 (1 + x2 )
z = T (x) = 4 Lf h (x) 5 = 4
2
Lf h (x)
x1 x3 + (1 + x1 ) (1 + x2 ) x2

2.3.

Tres consecuencias del teorema de linealizacin

Tres consecuencias importantes del anterior teorema sern presentadas [33, Seccin 2.2][24]

52

2.3.1.

Sistemas en el plano

Corolario 2.15 Un sistema no lineal en el plano (n = 2) con una sola


entrada
x = f (x) + g (x) u
es Linealizable localmente por Retroalimentacin (es localmente transformable a la Forma de Controlador) en una vecindad del origen si y
solo si su aproximacin lineal (linealizacin) en el origen
x =

@f (0)
x + g (0) u , Ax + bu
@x

es controlable.

2.3.2.

Sistemas de dimensin n > 2

La controlabilidad de la linealizacin para sistemas de orden n 3


es una condicin necesaria pero no suficiente de Linealizabilidad por
53

Retroalimentacin:
Corolario 2.16 Si el sistema no lineal con una sola entrada
x = f (x) + g (x) u
es Linealizable localmente por Retroalimentacin (es localmente transformable a la Forma de Controlador) en una vecindad del origen entonces su aproximacin lineal (linealizacin) en el origen
x =

@f (0)
x + g (0) u , Ax + bu
@x

es controlable, es decir,

rango b , Ab , A2 b , , An 1 b = n .
Ejercicio 2.17 Pruebe el corolario.
54

2.3.3.

Sistemas en forma Triangular

Corolario 2.18 El sistema en Forma Triangular


x i =
x n =

(x1 , , xi ) + xi+1 , 1 i n
n (x1 , , xn ) + u ,

en el cual 1 , , n son funciones suaves tales que


n, es Linealizable localmente por Retroalimentacin.

(0) = 0, 1 i

Prueba. Veremos dos pruebas: una verificando directamente las condiciones del teorema y la otra dando una transformacin explcita.
Comentario 2.19 Una Forma Triangular ms general est dada por
x i =
x n =

(x1 , , xi+1 ) , 1 i n 1
n (x1 , , xn ) + (x1 , , xn ) u ,

55

con 1 , ,
(0) 6= 0 , y

funciones suaves tales que

(0) = 0, 1 i n ,

@ i (0)
6= 0 , 1 i n
@xi+1

1.

Este sistema es tambin Linealizable localmente por Retroalimentacin.


Comentario 2.20 Cuando el control u entra en forma no lineal en las
ecuaciones de estado
x = f (x, u) , f (0, u) = 0 , 8u 2 R
el problema de Linealizacin por Retroalimentacin puede ser formulado
para el sistema extendido
x = f (x, u)
u = w ,
56

en el cual w es el nuevo control y (x, u) es el estado extendido. Si las


condiciones del teorema de linealizacin se satisfacen para el sistema
extendido, entonces el control resultante
u = w = (x, u) + (x, u) v , u (0) = u0
es un control dinmico linealizante para el sistema original.

57

Algunas Herramientas
Geomtricas

58

2.4.

Objetos importantes

Sea U un conjunto abierte de Rn . Algunos objetos geomtricos importantes son los siguientes:

2.4.1.

Funciones (campos) escalares

h : U Rn ! R, asignan a cada punto en U un escalar (nmero


real), y son suaves, es decir, tienen derivadas parciales de cualquier
orden, o analticas.

59

2.4.2.

Funciones o mapas vectoriales

F : U Rn ! Rm , m > 1, asignan a cada punto en U un punto en


Rm .
2
3
F1 (x)
6 F2 (x) 7
6
7
F (x) = 6
7 .
..
4
5
.
Fm (x)

La utilidad mayor de los mapas vectoriales ser como transformaciones de coordenadas: sea
2
3
1 (x)
6 2 (x) 7
6
7
z = (x) = 6
7 , : Rn ! Rn
..
4
5
.
n (x)
con las siguientes propiedades:

60

1.

(x) es invertible, es decir, existe una funcin


1

2.

(z) tal que

( (x)) = x , 8x 2 Rn .

1
(x) y
(z) son ambos mapeos suaves, es decir, que tienen
derivadas parciales de cualquier orden.

Un mapeo de este tipo se denomina Difeomorfismo Global en Rn . Si las


propiedades solo se satisfacen en una vecindad de un punto, entonces el
mapeo se denomina un difeomorfismo local.

61

2.4.3.

Campos vectoriales

f : U Rn ! Rn , asignan a cada punto en U un vector en Rn . Es


til identificar a los campos vectoriales con vectores columna (n 1)
2
3
f1 (x)
6 f2 (x) 7
6
7
f (x1 , x2 , , xn ) = f (x) = 6
.. 7 ,
4
. 5
fn (x)

dnde cada una de las componentes fi (x) es una funcin escalar. El


campo vectorial es suave si cada una de las funciones componentes lo
es.

2.4.4.

Campos Covectoriales

! : U Rn ! Rn , asignan a cada punto en U un covector en (Rn ) ,


el espacio dual de Rn .
62

Estos son objetos duales a los campos vectoriales. Recuerde que el


espacio dual V de un espacio vectorial V es el espacio de todas las funciones escalares lineales definidas en V . Este espacio dual de un espacio
vectorial de dimensin n es tambin un espacio vectorial de dimensin
n, y sus elementos se denominan covectores. Como cualquier mapa lineal, estos covectores pueden ser representados por matrices. Como un
covector w 2 V asigna a cada covector del espacio de dimensin n
un escalar, la matriz que lo representa es un vector. Es til identificar
(Rn ) con el conjunto de los vectores fila (1 n) y describir cualquier
subespacio de (Rn ) como la coleccin de todas las combinaciones lineales de algn conjunto de vectores fila. Por ejemplo, las filas de alguna
matriz con n columnas.

63

Ntese que si

6
6
v=6
4

v1
v2
..
.
vn

3
7
7
7
5

es el vector columna que representa a un elemento de V y si

w = w1 w2 wn

es el vector fila que representa a un elemento de V , entonces el valor


de w evaluado en v est dado por el producto
w v =

n
X

w i vi .

i=1

Usualmente esto se representa como un producto interior hw , vi en vez


del producto w v.
64

Entonces un campo covectorial se representa usualmente como

! (x) = !1 (x) !2 (x) !n (x)

donde cada !i (x) es una funcin escalar suave.

2.5.

Operaciones diferenciales

Existen diversas operaciones diferenciales de los objetos definidos


anteriormente. Veremos algunos de ellos.

65

2.5.1.

Matriz Jacobiana de un mapeo vectorial

La derivada de un mapa vectorial F : U Rn ! Rm , m > 1 es en


cada punto x la matriz Jacobiana
2
3
@F1 (x)
@F1 (x)
@F1 (x)

@x2
@xn
1
6 @F@x2 (x)
@F2 (x)
@F2 (x) 7
6 @x1
7

@F
@x2
@xn
7 .
=6
.
.
.
.
6
7
..
..
..
..
@x
4
5
@Fm (x)
@Fm (x)
@Fm (x)

@x1
@x2
@xn
El valor de

@F
@x

en un punto x = x0 se denota a veces como

66

@F

@x x0

2.5.2.

Diferencial o gradiente de una funcin escalar

Dada una funcin escalar (suave) : U Rn ! R su diferencial (o


gradiente) d es un campo covectorial
h
i @ (x)
@ (x)
@ (x)
d (x) = @@x(x)
=
(2.2)

@x2
@xn
1
@x
que equivale a la Matriz Jacobiana de .
2.5.2.1.

Diferencial exacta

Todo campo covectorial que tenga la forma de (2.2), es decir, que


sea la diferencial de una funcin escalar, se denomina diferencial exacta.

2.5.3.

Derivada de Lie

Involucra una funcin escalar (x) y un campo vectorial f (x), ambos definidos en U Rn , y genera una nueva funcin escalar Lf : U
67

Rn ! R, denominada la derivada de

a lo largo de f y cuyo valor es


n

Lf (x) = hd (x) , f (x)i =

X @ (x)
@ (x)
f (x) =
fi (x) .
@x
@x
i
i=1

El uso repetido de esta operacin es posible


@ (Lf (x))
g (x)
@x
@ Lkf 1 (x)
(x) =
f (x)
@x
(x) = (x) .

Lg Lf (x) =
Lkf
L0f

68

2.5.4.

Parntesis (o producto) de Lie

Involucra dos campos vectoriales f y g y se genera un nuevo campo


vectorial denotado [f, g] : U Rn ! Rn y definido como
[f, g] (x) =
dnde

@f (x)
@x

6
@g (x) 6
=6
6
@x
4

@g (x)
f (x)
@x

@f (x)
g (x) ,
@x

@g1 (x)
@x1
@g2 (x)
@x1

@g1 (x)
@x2
@g2 (x)
@x2

..
.

@g1 (x)
@xn
@g2 (x)
@xn

@gn (x)
@x1

@gn (x)
@x2

@gn (x)
@xn

..
.

..
.

..
.

3
7
7
7
7
5

son las matrices Jacobianas de los mapas f y g.


El uso repetido de esta operacin es posible Si se aplica repetidamente con respecto a un mismo campo vectorial, para evitar una notacin
69

de la forma [f, [f, [f, [f, g]]]] y simplificar la escritura se introduce la


siguiente notacin
ad0f g (x) = g (x)
adf g (x) = [f, g] (x)

adkf g (x) = f, adkf 1 g (x) (x) , k

El producto de Lie est caracterizado por propiedades bsicas (hacer


las pruebas).
Proposicin 2.21 El producto de Lie de los campos vectoriales tiene
las siguientes propiedades:
1. Es bilineal sobre R, es decir, si f1 , f2 , g1 , g2 son campos vectoriales
y r1 , r2 son nmeros reales, entonces
[r1 f1 + r2 f2 , g1 ] = r1 [f1 , g1 ] + r2 [f2 , g1 ]
[f1 , r1 g1 + r2 g2 ] = r1 [f1 , g1 ] + r2 [f1 , g2 ] .
70

2. Es anticonmutativa, es decir,
[f, g] =

[g, f ] .

3. Satisface la identidad de Jacobi, es decir,


[f, [g, p]] + [g, [p, f ]] + [p, [f, g]] = 0 .
Ejemplo 2.22 Para campos vectoriales constantes f , g, [f, g] = 0
Ejemplo 2.23
f=
Entonces

adf g (x) = [f, g] =

x1
=
x1 + x2

0 0
1 0

x2
sin x1

x2
x2
sin x1

71

, g=

x2

0
x1

0
cos x1

1
1

0
x1

ad2f

2.5.4.1.

1 0
1 1

x2
g (x) = [f, adf g] =
sin x1

0
1
x1
cos x1
1
x1 + x2

x1 2x2
=
x1 + x2 sin x1 x1 cos x1

x2

Interpretacin del parntesis de Lie

El parntesis de Lie tiene varias interpretaciones que clarifican (y


explican) la definicin. Daremos una de ellas que tiene que ver con
su relacin con la solucin de las ecuaciones diferenciales (los flujos)
correspondientes.
Sean dos campos vectoriales (suaves) f, g : X Rn ! Rn . Cada
uno de ellos tiene asociado un flujo, correspondiente a la solucin de la
72

ecuacin diferencial correspondiente:


x (t) = f (x (t)) , x (0) = x0 ! x (t) =
x (t) = g (x (t)) , x (0) = x0 ! x (t) =

(t, x0 ) =
g (t, x0 ) =
f

(x0 ) = etf x0
tg
g, t (x0 ) = e x0
f, t

Ntese que hemos usado tres diferentes notaciones (y equivalentes) del


flujo. La ltima de ellas etf x0 es ms conveniente cuando se hacen composiciones de los flujos correspondientes a diferentes campos vectoriales.
Por ejemplo,
et2 f et1 g x = f (t2 , g (t1 , x))
corresponde a iniciar en el punto x y moverse inicialmente a lo largo del
flujo de g durante t1 segundos (unidades de tiempo) y luego moverse a lo
largo del flujo de f durante t2 segundos. La notacin de la izquierda es
ms conveniente en este caso. Ntese que, adems, si el campo vectorial
es lineal, es decir, x = Ax y A es una matriz, entonces el flujo correspondiente es etA x0 , dnde etA es la matriz exponencial de A. Sin embargo,
en el caso general etf no es ms que una convencin de notacin til.
73

Lema 2.24 Supngase que f, g : X Rn ! Rn son dos campos vectoriales (suaves) y que x0 2 X. Entonces
1
{[
t!0 t2
1
= lm 2 e
t!0 t

[f, g] (x0 ) = lm

g,
tg

f,

tf tg tf

e e x0

g, t

f, t ] (x0 )

x0 } (2.3)

x0 .

Supnga que partimos del punto x0 y seguimos la curva integral


(solucin, flujo) del campo vectorial f durante un tiempo muy corto t,
luego, desde ese punto seguimos el flujo de g durante un tiempo t, luego
seguimos el flujo de f hacia atrs en el tiempo durante un tiempo t, y
finalmente seguimos el flujo de g hacia atrs en el tiempo durante un
tiempo t. Dnde terminamos?
En una aproximacin de primer orden en t regresaremos al punto x0 .
Sin embargo, en una aproximacin de segundo orden en t, llegaremos al
punto
x0 + t2 [f, g] (x0 ) .
74

Esto es simplemente lo que afirma el lema.


Ntese que el mapa f, t es el inverso del mapa f, t (e tf es el
inverso de etf ), y de forma similar g, t es el inverso del mapa g, t (e tg
es el inverso de etg ). Por lo tanto si los mapas f, t y g, t conmutan (es
tg tf
decir, g, t
= etf etg para
f, t =
f, t
g, t o equivalentemente e e
todo tiempo t suficientemente pequeo), entonces el lmite en (2.3) es
cero.
Por lo tanto se puede pensar en el parntesis de Lie [f, g] como
una medida de hasta qu punto los mapas de solucin f, t y g, t no
conmutan.
Prueba.
Para seguir la prueba sgase la figura Para poder calcular el lmite en
(2.3) es necesario calcular todas las cantidades hasta el segundo orden
en t.
Por definicin
d
[ f, t (x0 )] = f ( f, t (x0 )) .
(2.4)
dt
75

Figura 2.1: Seguimiento de los flujos de f y g.


76

Por lo tanto
d
[
dt

f, t

(x0 )]t=0 = f (

f, 0

(x0 )) = f (x0 ) .

Adems (2.4) implica que


d2
[
dt2

f, t

(x0 )]t=0 =

@f
f (x0 ) .
@x

Ahora por la serie de Taylor


xa = x0 + tf (x0 ) +

t2 @f
f (x0 ) + o t2 .
2 @x

Despus, anlogamente
t2 @g
g (xa ) + o t2 .
2 @x
77

xb = xa + tg (xa ) +

(2.5)

Ahora debemos sustituir xa de (2.5) y simplificar la expresin despreciando todos los trminos que sean de orden mayor a t2 . Por lo tanto
slo es necesario estimar g (xa ) hasta el primer orden
@gen
t ya que est
multiplicado por t. Tambin es seguro reemplazar a @x
(xa ) g (xa ) por
@g
2
(x0 ) g (x0 ) ya que este trmino est multiplicado por t2 . Ya que
@x

t2 @f
g (xa ) = g x0 + tf (x0 ) +
f (x0 ) + o t2
2 @x
@g
= g (x0 ) + t (x0 ) f (x0 ) + o (t)
@x

78

se sigue que

t2 @f
@g
xb = x0 + tf (x0 ) +
(x0 ) f (x0 ) + t g (x0 ) + t (x0 ) f (x0 )
2 @x
@x
2
t @g
+
(x0 ) g (x0 ) + o t2
2 @x
= x0 + t [f (x0 ) + g (x0 )] +

@g
1 @g
2 1 @f
+t
(x0 ) f (x0 ) +
(x0 ) f (x0 ) +
(x0 ) g (x0 ) + o t2 .
2 @x
@x
2 @x
El proceso se repite, y los resultados son los siguientes
xc = xb

tf (xb ) +

t2 @f
(xb ) f (xb ) + o t2
2 @x

= x0 + tg (x0 ) +

1 @g
2 @g
+t
(x0 ) f (x0 ) +
(x0 ) g (x0 )
@x
2 @x
79

@f
(x0 ) g (x0 ) + o t2 ,
@x

t2 @g
tg (xc ) +
(xc ) g (xc ) + o t2
2
@x

@f
2 @g
= x0 + t
(x0 ) f (x0 )
(x0 ) g (x0 ) + o t2 .
@x
@x

xd = xc

Esto completa la prueba.


El siguiente lema muestra la relacin entre la conmutatividad de los
flujos (mapas de solucin) de los campos vectoriales y su parntesis de
Lie.
Lema 2.25 Supngase que f, g : X Rn ! Rn son dos campos vectoriales (suaves). Entonces
[f, g] = 0 () f, t
(2.6)
g, = g,
f, t
tf g
g tf
= () e e = e e 8t, suficientemente pequeos .
80

2.5.5.

Derivada de Lie de un covector

Involucra un campo covectorial ! y un campo vectorial f y se genera


un nuevo campo covectorial denotado Lf ! : U Rn ! (Rn ) y definido
como
T
T
@! (x)
@f (x)
T
Lf ! (x) = f (x)
+ ! (x)
,
@x
@x
y se denomina la derivada de Lie de ! a lo largo de f .
Algunas propiedades tiles de estas tres operaciones son las siguientes (hacer las pruebas):

Proposicin 2.26 Las operaciones diferenciales introducidas son tales


que:
1. Si ,

son funciones escalares y f es un campo vectorial, entonces


Lf (x) = (x) (Lf (x)) .
81

2. Si , son funciones escalares y f, g son campos vectoriales, entonces

[f, g] = (x) (x) [f, g] (x)+ (x) (Lf (x)) g (x) (Lg (x)) (x) f (x
3. Si

es una funcin escalar y f, g son campos vectoriales, entonces


L[f,g] (x) = Lf Lg (x)

Lg Lf (x) .

4. Si , son funciones escalares, f es un campo vectorial y ! es


un campo covectorial, entonces
Lf ! (x) = (x) (x) Lf ! (x) + (x) h! (x) , f (x)i d (x) +
(Lf (x)) (x) ! (x) .
5. Si

es una funcin escalar y f es un campo vectorial, entonces


Lf d (x) = dLf (x) .
82

6. Si f, g son campos vectoriales y ! es un campo covectorial, entonces


Lf h!, gi (x) = hLf ! (x) , g (x)i + h! (x) , [f, g] (x)i .
Ejercicio 2.27 Probaremos que 3 es vlida.

@ (x) @g (x)
L[f,g] (x) =
f (x)
@x
@x

2.6.

@f (x)
g (x)
@x

Propiedades de mapeos vectoriales (Transformaciones)

Los siguientes resultados son importantes para establecer propiedades de mapeos vectoriales. En realidad todos son equivalentes entre si.
83

Teorema 2.28 Teorema de la funcin inversa. Sea A un conjunto


n
n
abierto
C 1 (infinitamente diferenciable).
@F de R y F : A ! R un mapa
Si @x x0 es no singular en algn x0 2 A entonces existe una vecindad
abierta U de x0 contenida en A tal que V = F (U ) es abierto en Rn y
la restriccin de F a U es un difeomorfismo sobre V .
Teorema 2.29 Teorema del rango. Sean A Rn y B Rm conjuntos abiertos,F :A ! B un mapa C 1 (infinitamente diferenciable).
Supngase que @F
tiene rango k para todo x 2 A. Para cada punto
@x x
0
x 2 A existe una vecindad A0 de x0 en A y una vecindad B0 de F (x0 )
en B, dos conjuntos abiertos U Rn y V Rm y dos difeomorfismos
G : U ! A0 y H : B0 ! V tales que H F G (U ) V y tales que
para todo x = (x1 , , xn ) 2 U
H

G (x1 , , xn ) = (x1 , , xk , 0, , 0) .

Comentario 2.30 Denote como Pk al mapeo Pk : Rn ! Rm definido


84

por
Pk (x1 , , xn ) = (x1 , , xk , 0, , 0) .

Entonces, ya que G y H son invertibles, la expresin anterior se puede


reescribir como
F = H 1 Pk G 1
que es vlida en todos los puntos de A0 .
Teorema 2.31 Teorema de la funcin implcita. Sean A Rm y
B Rn conjuntos abiertos, F : AB ! Rn un mapa C 1 (infinitamente
diferenciable). Sea
(x, y) = (x1 , , xm , y1 , , yn )
un punto de A B. Supngase que para algn (x0 , y 0 ) 2 A B
F x0 , y 0 = 0
85

y la matriz

@F
6
=4
@y

@F1
@y1

..
.

@Fn
@y1

..
.

@F1
@yn

..
.

@Fn
@yn

3
7
5

es no singular en (x0 , y 0 ). Entonces existen vecindades abiertas A0 de


x0 en A y B0 de y 0 en B y un nico mapeo G : A0 ! B0 , C 1 , tales que
F (x, G (x)) = 0
para todo x 2 A0 .
Comentario 2.32 Como una aplicacin del teoremad e la funcin implcita, considrese el siguiente corolario. Sea A un conjunto abierto en
Rn , sean M una matriz k n cuyos elementos son funciones escalares
(reales) suaves (C 1 ) definidas en A, y b un vector de dimensin k cuyos elementos son tambin funciones escalares suaves definidas en A.
86

Supngase que para algn x0 2 A

rango M x0 = k .

Entonces existe una vecindad abierta U de x0 y un mapeo suave G :


U ! Rn tales que
M (x) G (x) = b (x)
para todo x 2 U . En otras palabras, la ecuacin
M (x) y = b (x)
tiene al menos una solucin que es una funcin suave (C 1 ) en x en
una vecindad de x0 . Si k = n esta solucin es nica.
Comentario 2.33 El teorema de la funcin inversa puede ser utilizado para determinar si un mapeo suave
: U Rn ! Rn es un
difeomorfismo local: si la matriz Jacobiana de
es no singular en un
punto x = x0 2 U entonces existe un subconjunto abierto U 0 de U , que
contiene a x0 , tal que (x) define un difeomorfismo local.
87

Ejemplo 2.34 Considere la funcin

z1
x1 + x2
= (x1 , x2 ) =
z2
sin x2

que est definida para todo (x1 , x2 ) en R2 . La matriz Jacobiana

@
1 1
=
0 cos x2
@x
tiene rango 2 en x0 = (0, 0). En el subconjunto

U 0 = {(x1 , x2 ) : |x2 | < /2}

esta funcin define un difeomorfismo. Ntese que en un conjunto ms


grande el mapeo no define un difeomorfismo ya que se pierde la propiedad de invertibilidad. Ya que para cualquier nmero x2 tal que |x2 | >
/2 existe x02 tal que |x02 | < /2 y sin x2 = sin x02 . Cualquier pareja (x1 , x2 ), (x01 , x02 ) tales que x1 + x2 = x01 + x02 produce (x1 , x2 ) =
(x01 , x02 ), y por lo tanto el mapeo no es inyectivo.
88

Ejemplo 2.35 Considere la funcin

x1
z1
= (x1 , x2 ) =
x2
z2

1
x1 +1

definida en el conjunto

U 0 = {(x1 , x2 ) : x1 >

1} .

Esta funcin es un difeomorfismo (sobre su imagen), ya que (x1 , x2 ) =


(x01 , x02 ) implica que necesariamente x1 = x01 y x2 = x02 . Sin embargo,
esta funcin no est definida en toda R2 .

2.7.

Distribuciones

Definicin 2.36 Para los campos vectoriales f1 , f2 , , fk en D Rn


sea
(x) = span {f1 (x) , f2 (x) , , fk (x)}
89

el espacio vectorial generado por los vectores f1 (x) , f2 (x) , , fk (x).


La coleccin de espacios vectoriales (x) para todo x 2 D se denomina
Distribucin y nos referimos a ella como
= span {f1 , f2 , , fk } .
Si la dim ( (x)) = k para todo x 2 D, se dice que
es una
distribucin no singular en D, generada por f1 , f2 , , fk
La distribucin

es involutiva si
g1 2

y g2 2

=) [g1 , g2 ] 2

Lema 2.37 Si
es una distribucin no singular en D, generada
por f1 , f2 , , fk entonces es involutiva si y slo si
[fi , fj ] 2

, 8 1 i, j k
90

Ejemplo 2.38 D = R3 ;

= span {f1 , f2 }
2
3
2
3
2x2
1
f 1 = 4 1 5 , f2 = 4 0 5
0
x2

dim ( (x)) = 2 , 8x 2 D
2
0
@f2
@f1
4
[f1 , f2 ] =
f1
f2 = 0
@x
@x
1
2
2x2
rank [f1 (x) , f2 (x) , [f1 , f2 ] (x)] = rank 4 1
0
no es involutiva

91

3
5

3
1 0
0 0 5 = 3 , 8x 2 D
x2 1

Ejemplo 2.39 D = {x 2 R3 | x21 + x23 6= 0}; = span {f1 , f2 }


2
3
2
3
2x3
x1
f1 = 4 1 5 , f2 = 4 2x2 5
0
x3
dim ( (x)) = 2 , 8x 2 D
2
3
4x3
@f2
@f1
[f1 , f2 ] =
f1
f2 = 4 2 5
@x
@x
0
2
2x3
x1
4
1
2x2
rank [f1 (x) , f2 (x) , [f1 , f2 ] (x)] = rank
0
x3
es involutiva.

3
4x3
2 5 = 2 , 8x 2
0

Ejemplo 2.40 Cualquier distribucin de dimensin uno (1) es involutiva. Esto se debe a que tal distribucin se puede generar (localmente)
92

por un campo vectorial no nluo f , y ya que


[f, f ] (x) =

@f
f (x)
@x

@f
f (x) = 0 ,
@x

as que satisface la condicin de involutividad.

2.8.

Codistribuciones

Es el objeto dual de una distribucin: dado un conjunto !1 , !2 , , !d


de campos covectoriales suaves definidos en el mismo subconjunto U
Rn la codistribucin
= span {!1 , !2 , , !d }
asigna a cada punto de U el subespacio del espacio dual (Rn ) generado por los covectores. Se pueden fcilmente generalizar las nociones de
dimensin de una codistribucin y de puntos regulares y singulares.
93

Si W es una matriz que tiene n columnas y cuyos elementos son


funciones escalares suaves de x, entonces sus filas pueden ser cosideradas
como campos covectoriales suaves. Por lo tanto cualquier matriz de este
tipo identifica una codistribucin: aquella generada por sus filas.
A veces es posible construir codistribuciones a partir de distribuciones dadas, o viceversa. La forma natural de hacer esto es la siguiente:
dada una distribucin , para cada x 2 U considere el aniquilador de
(x), es decir, el conjunto de covectores que aniquila todos los vectores
en (x)
?

(x) = {w 2 (Rn ) : hw , vi = 0 para todos v 2

(x)} .

En forma conversa, dada una codistribucin se puede construir la distribucin denotada por ? y denominada el aniquilador de , asignando
para cada x 2 U
? (x) = {v 2 Rn : hw , vi = 0 para todos w 2 (x)} .
94

Si una distribucin
es generada por las columnas de una matriz
F , cuyos elementos son funciones escalares suaves, su aniquilador es
identificado, en cada x 2 U , por el conjunto de vectores fila w que
satisfacen la condicin
w F (x) = 0 .
De igual manera, si una codistribucin es generada por las filas de
una matriz W , cuyos elementos son funciones escalares suaves de x,
su aniquilador es identificado, para cada x, por el conjunto de vectores
columna que satisfacen
W (x) v = 0 .
En este caso ? (x) es el ncleo (kernel) de la matriz W en el punto x
? (x) = ker (W (x)) .
Hay que ser cuidadosos acerca de la diferenciabilidad (suavidad) de
las distribuciones o codistribuciones generadas de esta manera, ya que
95

el aniquilador de una distribucin (codistribucin) suave puede no ser


suave
Ejemplo 2.41 Considere la distribucin suave definida en R1
= span {x} .
Entonces
?

(x) =

{0}

(R1 )

si x 6= 0
si x = 0

que no es una codistribucin suave.


Sin embargo, esto no ocurre en la vecindad de puntos regulares de
distribuciones (codistribuciones).
Lema 2.42 Sea x0 un punto regular de una distribucin suave . Entonces x0 es un punto regular de ? y existe una vecindad U 0 de x0 tal
que la restriccin de ? a U 0 es una codistribucin suave.
96

2.9.

El teorema de Frobenius

Sea una distribucin no singular, definida en un conjunto abierto


U Rn , de dimensin d. Entonces en una vecindad U 0 de cualquier
x0 2 U existen d campos vectoriales suaves f1 , , fd todos definidos
en U 0 que generan
(x) = span {f1 (x) , , fd (x)} , 8x 2 U 0 .
La codistribucin = ? es tambin suave y no singular, tiene dimensin n d y, localmente alrededor de cada x0 , es generada por n d
campos covectoriales !1 , , !n d . Por construccin el campo covectorial !j es tal que
h!j (x) , fi (x)i = 0 , 81 i d , 1 j n

d , x 2 U0 .

En algunas ocasiones nos interesa no cualquier solucin de estas


97

ecuaciones, sino slo aquellas que tengan la forma


@ j
@x
para funciones escalares suaves 1 , , n d . Esto equivale a solucionar
el sistema de ecuaciones diferenciales parciales
!j =

y hallar n
fila

@ j
(f1 (x) , , fd (x)) = 0
@x
d soluciones independientes, es decir, tales que los vectores

@ 1
@ n d
, ,
@x
@x
sean linealmente independientes en cada x. Es decir, cundo la distribucin tiene un aniquilador ? generado por diferenciales exactas?
Definicin 2.43 Una distribucin
no singular, de dimensin d, den
finida en un conjunto abierto U R se dice que es completamente
98

integrable si, para cada punto x0 2 U existe una vecindad U 0 de x0 ,


y n d funciones escalares suaves 1 , , n d todas definidas en U 0
tales que
span {d 1 , , d n d } = ?
en U 0 .

Ejemplo 2.44 D = R3 ;

= span {f1 , f2 }
2
3
2
3
2x2
1
f 1 = 4 1 5 , f2 = 4 0 5
0
x2

dim ( (x)) = 2 , 8x 2 D
3
2x2 1
0 5 = [2x2 w1 + w2 , w1 + x2 w3 ] = 0
[w1 , w2 , w3 ] 4 1
0 x2
2

99

w1 (x) = x2 w3 (x)
w2 (x) = 2x22 w3 (x)
y entonces
! (x) =

x2 , 2x22 , 1

w3 (x)

para cualquier funcin escalar suave w3 (x) 6= 0 es un generador de


?
. Sin embargo, no existe ningna funcin escalar suave (x) tal que
d = !. Si esto fuera as, la matriz Jacobiana de ! debera ser simtrica
@!
=
@x

@!
@x

ya que es igual a la matriz Hessiana de , que es simtrica


@!
@2
=
.
@x
@x2
100

Sin embargo este no es el caso en nuestro ejemplo, ya que


2
3
@w3 (x)

w3 (x) x2 @w@x3 (x)


x
2
@x
2
3
@! 6 2 @w3 (x)
7
= 4 2x2 @x1

2x22 @w@x3 (x)


5
3
@x
@w3 (x)
@w3 (x)

@x1
@x2
que no es simtrica.

De la propiedad 3 en la Proposicin 2.26 se puede ver que si


y f1 , f2 son campos vectoriales de , entonces
L[f1 ,f2 ] (x) = Lf1 Lf2 (x)

existe

Lf2 Lf1 (x) = 0 ,

y entonces debe ocurrir que [f1 , f2 ] 2 . As que una condicin necesaria para que una distribucin sea completamente integrable, es que
sea involutiva. El teorema de Frobenius muestra que esta condicin es
tambin suficiente:
101

Teorema 2.45 de Frobenius. Una distribucin no singular es completamente integrable si y slo si la distribucin es involutiva.
Ejemplo 2.46 D = {x 2 R3 | x21 + x23 6= 0}; = span {f1 , f2 }
2
3
2
3
2x3
x1
f1 = 4 1 5 , f2 = 4 2x2 5
0
x3
dim ( (x)) = 2 , 8x 2 D
2
3
4x3
@f2
@f1
[f1 , f2 ] =
f1
f2 = 4 2 5
@x
@x
0
2
2x3
x1
4
1
2x2
rank [f1 (x) , f2 (x) , [f1 , f2 ] (x)] = rank
0
x3
102

3
4x3
2 5 = 2 , 8x 2
0

es involutiva. La funcin escalar


(x) = (x1 + 2x2 x3 ) x3
es una solucin.

2.9.1.

Prueba de la suficiencia

Esta es constructiva. Considere los campos vectoriales fd+1 , , fn


definidos en U 0 tales que
(x) = span {f1 (x) , , fd (x) , fd+1 (x) , , fn (x)} = Rn , 8x 2 U 0 .
Dentese por ft (x) al flujo del campo vectorial f , es decir, la funcin
suave de t, x con la propiedad que x (t) = ft (x0 ) resuelve la ecuacin
diferencial x = f (x) con condicin inicial x (0) = x0 . As que

@ f
f
(x)
=
f
(x)
, f0 (x) = x .
t
@t t
103

Recurdese que, para cualquier x0 fijo, existe un T > 0 (suficientemente


pequeo) tal que el mapeo
f
t

:x!

f
t

(x)

est definido para todo x en una vecindad de x0 y para todo |t| < T , es un
h i 1
difeomorfismo local (sobre su imagen) y ft
= f t . Adicionalmente
para todo t, s suficientemente pequeos
f
t+s

(x) =

f
t

f
s

(x) .

Se puede probar (ver los detalles en [24]) que una solucin de la ecuacin
diferencial parcial
@ j
(f1 (x) , , fd (x)) = 0
@x
se puede construir de la siguiente manera:
104

Construya el mapeo
: U"
! Rn
f1
(z1 , , zn ) !
z1

fn
zn

(x0 )

dnde U" = {z 2 Rn : |zi | < "}, y " " denota la composicin con
respecto al argumento x. Si " es suficientemente pequeo tiene
las siguientes propiedades:
Est definido para todo z = (z1 , , zn ) 2 U" y es un difeomorfismo sobre su imagen,
para todo z 2 U" las primeras d columnas de la matriz Jacobiana

@
@z
son vectores linealmente independientes en
105

( (z)).

Si U 0 denota la imagen del mapa , U 0 es una vecindad abierta


1
de x0 (ya que x0 = (0)). Como la inversa
est definida en
0
U asigne
0
1
1 (x)
B ..
C
1
(x)
@ .
A=
n (x)
dnde 1 (x), ,
para todo x 2 U 0 .

(x) son funciones escalares suaves, definidas

Las ltimas n d funciones d+1 (x), ,


independientes de la EDP, es decir,
@

(x) son soluciones

(x)
(f1 (x) , , fd (x)) = 0 , j = d + 1, , n .
@x
Esto se deduce de

@ 1
@
= I , 8z 2 U" () 8x 2 U 0 .
@x x= (z) @z
106
j

2.9.2.

Ejemplos

La prueba de suficiencia muestra que la solucin de la EDP


@ j
(f1 (x) , , fd (x)) = 0
@x
puede ser reducida a la solucin de n ecuaciones diferenciales ordinarias
de la forma
x = fi (x) 1 i n
dnde f1 (x), , fn (x) son linealmente independientes, y f1 (x), ,
fd (x) generan la distribucin .
Ejemplo 2.47 Considere la distribucin en R2

exp (x2 )
(x) = span
1
107

La distribucin tiene dimensin 1 para todo x 2 R2 , por lo tanto la


distribucin es no singular e involutiva (por ser de dimensin 1). Sean


exp (x2 )
1
f1 (x) =
, f2 (x) =
.
1
0
Los flujos de f1 (x), f2 (x) son muy simples.
x 1 = exp (x2 )
x1 (t) = x01 + exp (x02 ) (exp (t)
x 2 = 1
x2 (t) = x02 + t

x1 + exp (x2 ) (exp (z1 ) 1)


f1
z1 (x) =
x2 + z 1
x 1 = 1
x1 (t) = x01 + t
x 2 = 0
x2 (t) = x02

x1 + z 2
f2
.
z2 (x) =
x2
108

1)

Seleccionando (x01 , x02 ) = 0


x1
exp (z1 ) + z2 1
= (z1 , z2 ) =
x2
z1

z1
x2
1
=
(x1 , x2 ) =
z2
x1 exp (x2 ) + 1
La funcin z2 (x1 , x2 ) = x1

exp (x2 ) + 1 es una solucin de la EDP

@z2 (x1 , x2 )
f1 (x) = 0
@x
Ejemplo 2.48 Considere la distribucin en R2
2
x1
(x) = span
1
La distribucin tiene dimensin 1 para todo x 2 R2 , por lo tanto la
109

distribucin es no singular e involutiva (por ser de dimensin 1). Sean


2

x1
1
f1 (x) =
, f2 (x) =
.
1
0
Los flujos de f1 (x), f2 (x) son muy simples.

x0

x 1 = x21
x1 (t) = 1 x10 t
1
x 2 = 1
x2 (t) = x02 t
x1
f1
1 x1 z 1
z1 (x) =
x2 z 1
Ntese que este flujo no est definido para x1 z1 1, es decir, el campo
vectorial f1 no es completo.
x 1 = 1
x1 (t) = x01 + t
x 2 = 0
x2 (t) = x02

x1 + z 2
f2
.
z2 (x) =
x2
110

Seleccionando (x01 , x02 ) = 0



x1
=
x2

z1
=
z2

(z) =
1

x01 +z2

1 (x01 +z2 )z1

x02

(x1 , x2 ) =

z1

x02

x2

x1 +z2
1+x1 (x02 x2 )

x01

La funcin no est definida globalmente. En una vecindad, de x0 la


funcin z2 (x1 , x2 ) es una solucin de la EDP
@z2 (x1 , x2 )
f1 (x) = 0
@x

2.10.

Prueba del Teorema 1.7

Probaremos el teorema en varios pasos.


111

Lema 2.49 Los vectores fila


dh (x) , dLf h (x) , dL2f h (x) , , dLf 1 h (x)
y los vectores columna
g (x) , adf g (x) , , adf

g (x)

son linealmente independientes para todo x 2 D.


Para probar este resultado, probaremos la siguiente propiedad til.
Lema 2.50 Sea
una funcin escalar y f, g campos vectoriales, todos definidos en un conjunto abierto U de Rn . Enonces para cualquier
seleccin de s, k, r 0,

r
s
X

i r
k+r
dLf (x) , adf g (x) =
( 1)
Lrf i dLs+i
(x) , adkf g (x) .
f
i
i=0
(2.7)
112

Como consecuencia, los dos conjuntos de condiciones siguientes son


equivalentes
1. (i) Lg (x) = Lg Lf (x) = = Lg Lkf (x) = 0 para todo x 2 U .
2. (ii) Lg (x) = Ladf g (x) = = Ladkf g (x) = 0 para todo
x 2 U.
Prueba. Ntese que por las propiedades 5 y 6 en Proposicin 2.26
s
s

k+r
dLf (x) , adk+r+1
g
(x)
=
dL
(x)
,
f
,
ad
g
(x)
f
f
f
s
s+1

k+r
k+r
= Lf dLf (x) , adf g (x)
dLf
(x) , adf g (x) .

La igualdad (2.7) se obtiene por induccin en r. La equivalencia de (i)


y (ii) es una simple consecuencia de (2.7).
Ahora procedemos con la prueba del Lema 2.49.
113

Prueba. Ntese que por la definicin de grado relativo, usando (2.7)


se obtiene para todo i, j tales que i + j 2
j

dLf h (x) , adif g (x) = 0 para todo x vecino de x0


y

dLjf h (x) , adif g (x) = ( 1)

114

1 j

Lg Lf 1 h (x) 6= 0

para todo i, j tales que i + j = 1. Todas estas condiciones muestran


que la matriz
0
1
dh (x)
B dLf h (x) C
B
C
1
B ..
C g (x) adf g (x) adf g (x) =
@ .
A
dLf 1 h (x)
0
1
Lg h (x)
Ladf g h (x)
Lad 1 g h (x)
f
B
C
Lad 2 g h (x) ?
B Lg Lf h (x)
C
f
B
C
=B
C
..
@
A
.
1
Lg Lf h (x) ?

?
0

1
0
dh (x) , adf 1 g (x)
B 0
C
?
B
C
= B ..
C
@ .
A

?
1

dLf h (x) , g (x) ?


?
115

tiene rango y, por lo tanto, los vectores fila dh (x0 ) , dLf h (x0 ) , dL2f h (x0 ) ,
y los vectores columna g (x) , adf g (x) , , adf 1 g (x) son linealmente independientes.
Este lema prueba que necesariamente n y que las funciones h (x)
, Lf h (x) , L2f h (x) , , Lf 1 h (x) califican como un conjunto parcial de
funciones coordenadas en una vecindad del punto x0 . Ahora podemos
probar el teorema.
El caso = n se sigue del Lema 2.50, cuya primera afirmacin prueba
que @T
es no singular, por lo que T es un difeomorfismo local.
@x
Considere ahora el caso < n. La distribucin
= span {g} es
no singular, involutiva y tiene dimensin uno. Por el teorema de Frobenius,
es completamente integrable. Por lo tanto para cada x0 2
D existe una vecindad U 0 de x0 y n 1 funciones escalares suaves
1 (x) , ,
n 1 (x) con diferenciales linealmente independientes tales
que
Lg i (x) = 0 , para 1 i n 1 , 8x 2 U 0 .
116

Ya que

Lg Lif h (x) = 0 , para 1 i

y dh (x) , dLf h (x) , dL2f h (x) , , dLf 2 h (x) son linealmente independientes, podemos usar h (x) , Lf h (x) , L2f h (x) , , Lf 2 h (x)
como parte de esas n 1 funciones. En particular las tomamos como n +1 (x) , , n 1 (x). Debido a que Lg Lf 1 h (x) 6= 0 el vector fila dLf 1 h (x0 ) es linealmente independiente de los vectores fila
d 1 (x0 ) , , d n 1 (x0 ). Por lo tanto

@T 0
@T 0
rango
x
= n =)
x es no singular
@x
@x
y existe una vecindad U 1 de x0 tal que T (x) restringido a U 1 es un
difeomorfismo en U 1 . Tomando a N = U 0 \ U 1 completa la prueba del
teorema.
117

2.11.

Prueba del Teorema 2.12

2.11.1.

Necesidad

Supnga que existe una h (x) que satisface


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . , n
Lg Lnf 1 h (x)

1 ; 8x 2 D0

6= 0 ; 8x 2 D0 .

El lema 2.50 muestra que rango G = n. Por lo tanto D es no singular y


tiene dimensin n 1. Entonces
Lg h (x) = Ladf g h (x) = = Ladn

que puede ser escrito como

dh (x) g (x) adf g (x)

adnf

g h (x)

g (x)

=0

=0.

Esta ecuacin implica que D es completamente integrable y, por el teorema de Frobenius, D es involutiva.
118

2.11.2.

Suficiencia

Supngase que las condiciones (1) y (2) del teorema son satisfechas.
Entonces D es no singular y tiene dimensin n 1. Por el teorema de
Frobenius existe una h (x) que satisface
Lg h (x) = Ladf g h (x) = = Ladn
f

g h (x)

=0.

Usando la identidad de Jacobi se puede verificar que


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . , n

1 ; 8x 2 D0 .

Adems

dh (x) G (x) = dh (x) g (x) adf g (x) adnf


h
i
= 0 , 0 , Ladnf 1 g h (x) .
119

g (x)

Ya que rango G = n y dh (x) 6= 0 se requiere que Ladn


Usando la identidad de Jacobi se puede verificar que
lo que completa la prueba del teorema.

120

1 h (x) 6=
g
n 1
Lg Lf h (x) 6=
f

0.
0,

Parte II
Estabilizacin

121

Leccin 3
Estabilizacin

122

3.1.

Conceptos bsicos y Linealizacin

Se desea estabilizar al sistema


x = f (x, u)
en el punto de equilibrio x = xss
Problema 3.1 de estado estacionario: Encuentre un control de estado
estacionario uss tal que
0 = f (xss , uss )
Definiendo
x =x

xss , u = u

uss

la dinmica del sistema satisface


x = f (xss + x , uss + u ) , f (x , u )
0 = f (0, 0)
123

El control
u =

(x ) =) u = uss + (x

xss )

Problema 3.2 de estabilizacin por retroalimentacin de los estados:


Dado
x = f (x, u)
, f (0, 0) = 0
encuentre
u=

(x)

(0) = 0

tal que el origen es un punto de equilibrio asintticamente estable para


el sistema
x = f (x, (x))
f y

son funciones localmente Lipschitz.

124

3.1.1.

Sistemas Lineales

Sea el sistema
x = Ax + Bu
con (A, B) estabilizable (, controlable o todo valor propio incontrolable
tiene parte real negativa)
Encuentre K tal que (A BK) sea Hurwitz
u=

Kx

Mtodos tpicos:
Colocacin de polos (o de valores propios)
Colocacin de valores y vectores propios
LQR
125

3.1.2.

Linealizacin

Se desea estabilizar al sistema


x = f (x, u)

, f (0, 0) = 0

con f contnuamente diferenciable en un dominio Dx Du Rn Rp


que contiene el origen (x = 0 , u = 0)
La linealizacin es
x = Ax + Bu
@f
@f
A=
(x, u)
; B=
(x, u)
@x
@u
x=0 , u=0
x=0 , u=0
Suponga que (A, B) es estabilizable. Disee una matriz K tal que (A
sea Hurwitz
u = Kx
Sistema en lazo cerrado:
x = f (x, Kx)
126

BK)

Linealizacin

@f
(x, Kx)
@x
x = (A BK) x
x =

@f
(x, Kx) K
@u

x
x=0

Ya que (A BK) es Hurwitz, el origen es un punto de equilibrio exponencialmente estable del sistema en lazo cerrado.
Ejemplo 3.3 Ecuacin del pndulo
=

a sin

b + cT

Estabilice el pndulo en el punto =


0=
x1 =

a sin + cTss

, x2 = , u = T
127

Tss = T

a
sin
c

A=

x 1 = x2
x 2 = a [sin (x1 + )
0

1
a cos (x1 + )
B=
K=

BK =

sin ]

=
x1 =0

bx2 + cu
0

1
a cos

0
c

k1 k2

(a cos + ck1 )

es Hurwitz

(b + ck2 )

a cos
b
, k2 >
c
c
a sin
Kx =
k1 (
c

k1 >
T =

a
sin
c

128

k2

3.2.

Linealizacin por retroalimentacin

Considere el sistema no lineal


x = f (x) + G (x) u
f (0) = 0 , x 2 Rn , u 2 Rp

Suponga que existe un cambio de variables z = T (x), definido para


todo x 2 D Rn , que transforma al sistema a la Forma de Controlador
z = Az + B (x) [u
dnde (i) (A, B) es controlable, y (ii)
para cada x 2 D Rn .
Si se elige
u = (x) +

(x)]
(x) es una matriz no singular

(x) v

entonces la dinmica del sistema en lazo cerrado es


z = Az + Bv
129

que es lineal en los estados y la entrada v.


Si adems la nueva entrada v se disea como
v=

Kz

con K tal que la matriz (A BK) sea Hurwitz, entonces el origen z = 0


del sistema en lazo cerrado
z = (A

BK) z

es global y exponencialmente estable (GEE).


En las coordenadas originales el control que estabiliza el origen es
u = (x)

(x) KT (x)

y la dinmica en lazo cerrado en coordenadas x es

1
x = f (x) + G (x) (x)
(x) KT (x)
Ntese que (Pruebe las afirmaciones!)
130

x = 0 es un punto de equilibrio del sistema en lazo cerrado.


x = 0 es asintticamente estable (AE), ya que T (x) es un difeomorfismo.
x = 0 es exponencialmente estable (EE) localmente, ya que T (x)
es un difeomorfismo.
x = 0 no es, en general, Global y Asintticamente Estable (GAE).
x = 0 es Global y Asintticamente Estable (GAE) si T (x) es un
difeomorfismo global (Ver [28, pag. 508]).
Si T (x) es un difeomorfismo global, x = 0 no es, en general,
Global y Exponencialmente Estable (GEE).
x = 0 es Global y Exponencialmente Estable (GEE) si T (x) es
un difeomorfismo global y es Globalmente Lipschitz.
131

Qu informacin se requiere para implantar la ley de control


1

u = (x)

3.2.1.

(x) KT (x) ?

Una nota sobre el cambio en la convergencia


de trayectorias ante transformaciones

Considrese el siguiente ejemplo: Sea el sistema escalar


x =

x3

cuyas trayectorias estn dadas por


x (t0 )
x (t) = p
.
1 + 2 (t t0 ) x2 (t0 )

que convergen global y asintticamente, pero no lo hacen exponencialmente (puede probarlo?). El comportamiento local (exponencial o asinttico) se puede decidir mediante la linealizacin.
132

Sea la funcin contnua y diferenciable en todas partes e invertible


globalmente (pero no es un difeomorfismo global, ya que en el orgen la
inversa no es diferenciable)
T (x) = x |x| e(

1
2x2

La dinmica del sistema transformado z = T (x) es


z = T (x) =

x |x| e(

1
2x2

2x |x|3 e(

1
2x2

)=

2 |x|2 z

Por lo tanto las trayectorias en z decrecen ms rpido que una exponencial!


|z (t)| |z (t0 )| e (t t0 ) .

Ntese que en la vecindad del origen esto no puede ocurrir si la


transformacin es un difeomorfismo (cerca del origen), ya que en ese
caso (teorema de linealizacin) no hay cambio en el tipo de estabilidad.
133

2
T(x)
DT(x)

1.5
1
0.5
0
0.5
1
1.5
2
1

0.8

0.6

0.4

0.2

0
x

134

0.2

0.4

0.6

0.8

100
T(x)
DT(x)

80
60
40
20
0
20
40
60
80
100
10

0
x

135

10

En nuestro ejemplo esto fu posible debido a que la transformacin es


un homeomorfismo (transformacin contnua e invertible, con inversa
contnua), pero no un difeomorfismo (homeomorfismo + diferenciabilidad de la funcin y su inversa). Sin embargo cerca a infinito (muy lejos
del orgen), lo que es importante para estabilidad global, un difeomorfismo puede cambiar la estabilidad exponencial en asinttica (o viceversa).
Sin embargo esto no puede tampoco ocurrir si el difeomorfismo es, por
ejemplo, globalmente Lipschitz.
Si se permiten homeomorfismos, en vez de difeomorfismos, entonces
la estabilidad exponencial y la estabilidad asinttica son equivalentes!
(Ver [21]).

3.2.2.

Robustez ante incertidumbres

Cul es el efecto de las incertidumbres en (x), (x), y T (x) ?


Sean
(x), (x), y T (x) modelos nominales de (x), (x), y T (x).
136

Con la ley de control


u=
(x)

(x) K T (x)

el sistema en lazo cerrado es (en coordenadas z)


z = (A BK) z + B (z)
h
i
1
1

=
+
KT K T

(3.1)

Este sistema constituye una perturbacin del sistema nominal. Lo


analizamos utilizando las herramientas de sistemas perturbados.
Lema 3.4 Considere el sistema en lazo cerrado (3.1), dnde (A BK)
es Hurwitz. Sea P = P T > 0 la solucin de la ecuacin algebraica de
Lyapunov
P (A BK) + (A BK)T P = I
137

y sea k una constante tal que


0k<

1
.
2 kP Bk2

Si k (z)k k kzk para todo z, entonces el origen de (3.1) ser


Global y Exponencialmente Estable (GEE).
Si k (z)k k kzk+" para todo z, entonces el estado z ser Global
y Finalmente Acotado por "c, para alguna c > 0.
Prueba. Sea

V (z) = z T P z

Esta es una funcin de Lyapunov para el sistema nominal (lineal). Luego, tomando su derivada a lo largo de las trayectorias del sistema per-

138

turbado (3.1) se obtiene

V (z) = z P (A BK) + (A

BK) P z + 2z T P B (z)

kzk22 + 2 kzk2 kP Bk2 k (z)k2

Si k (z)k2 k kzk2 + " entonces se tiene


V (z)

(1

) kzk22

kzk22 + 2k kP Bk2 kzk22 + 2" kP Bk2 kzk2

dnde 2 (0, 1) se elige cercana a 1 de tal forma que k <


lo tanto
V (z) (1 ) kzk22 + 2" kP Bk2 kzk2

2kP Bk2

. Por

Si k (z)k2 k kzk2 hacemos " = 0 en la anterior desigualdad y concluimos que el origen es GEE. Si " > 0
V (z)

(1

) 1

kzk22 , 8 kzk2
139

2" kP Bk2
, "c0
(1 )

con 2 (0, 1). Del Teorema 4.18


p de [28] se concluye que z (t) es Global
y Finalmente Acotado por "c0
m
ax (P ) / mn (P )

Comentario 3.5 Es claro de la prueba del Lema que si la cota de (z)


se satisface solo en una vecindad del origen el resultado es vlido localmente.
Ejemplo 3.6 Ecuacin del pndulo
=
x1 =

a sin

, x2 = , u = T

x 1 = x2
x 2 = a [sin (x1 + )
u=

b + cT
Tss = T

sin ]

1
{a [sin (x1 + ) sin ]
c
140

a
sin
c

bx2 + cu
k1 x 1

k2 x 2 }

BK =

1
k1

(k2 + b)

a
1
sin = [a sin (x1 + )
c
c
Sean a
y c modelos nominales de a y c
T =u+

T =

(x) =

1
[
a sin (x1 + )
c

k1 x 1

es Hurwitz
k1 x1

k2 x 2 ]

k2 x 2 ]

x = (A BK) x + B (x)

a
c a
c
c c
sin (x1 + )
(k1 x1 + k2 x2 )
c
c

| (x)| k kxk + "


q
a
c a
c
c c
a
c a
c
k=
+
k12 + k22 , " =
|sin |
c
c
c
141

P =

p11 p12
p12 p22

, PB =

1
k< p 2
2 p12 + p222

p12
p22

sin = 0 =) " = 0
Es la linealizacin por retroalimentacin una buena idea?
Ejemplo 3.7
x = ax
u=

bx3 + u , a, b > 0

(k + a) x + bx3 , k > 0 , =) x =

kx

bx3 es un trmino de amortiguamiento. Por qu cancelarlo?


u=

(k + a) x , k > 0 , =) x =
142

kx

bx3

Ejemplo 3.8 Considere el sistema


x 1 = x2
x 2 = h (x1 ) + u
con
h (0) = 0 , x1 h (x1 ) > 0 , 8x1 6= 0
Diseo por linealizacin por retroalimentacin:
u = h (x1 ) (k1 x1 + k2 x2 )

0
1
x =
x
k1
k2
Diseo basado en pasividad: Considere la funcin de almacenamiento
de energa
x1
1
V (x) =
h (z) dz + x22
2
0
143

V = h (x1 ) x2

x2 h (x1 ) + x2 u = x2 u

Entonces el sistema es pasivo si la salida es


y = x2
La ley de control
u=

(x2 ) ,

(0) = 0 , x2 (x2 ) > 0 , 8x2 6= 0

estabiliza asintticamente (globalmente?) el origen de


x 1 = x2
x 2 = h (x1 )
ya que

V =

(x2 )

x2 (x2 )

x2 (t) 0 =) x 2 (t) 0 =) h (x1 (t)) 0 =) x1 (t) 0 ,


144

La estabilidad asinttica es una consecuencia del principio de invariancia de Lasalle.


Linealizacin:

0
1
x =
x , k = 0 (0)
h0 (0)
k
El polinomio caracterstico es

s1,2

s2 + ks + h0 (0) = 0
s
2
k
k
=

h0 (0)
2
2

cuando k vara entre 0 ! 1, una p


de las races no puede moverse
a la izquierda del punto Re [s] =
h0 (0)

Ventajas/Desventajas del control basado en pasividad:


145

1. Ventaja: El control basado en pasividad no requiere un modelo de la funcin no lineal h (x1 ), por lo que es robusto ante
variaciones en ella,
2. Ventaja: Flexibilidad en la eleccin de
restricciones de la entrada.

(x2 ), para satisfacer

3. Desventaja: la velocidad de convergencia no puede ser asignada arbitrariamente.

146

Leccin 4
Linealizacin Parcial

147

4.1.

Linealizacin Parcial (o entrada/salida)


por Retroalimentacin

Considere el sistema no lineal


x = f (x) + G (x) u
f (0) = 0 , x 2 Rn , u 2 Rp

Suponga que existe un cambio de variables

T1 (x)
z=
= T (x) =

T2 (x)

definido para todo x 2 D Rn , que transforma al sistema a la Forma


(Normal)

= f0 (, )
= A + B (x) [u (x)]
148

dnde (i) (A, B) es controlable, y (ii)


para cada x 2 D Rn .
Si se elige
u = (x) +

(x) es una matriz no singular


1

(x) v

entonces la dinmica del sistema en lazo cerrado es

= f0 (, )
= A + Bv
Si adems la nueva entrada v se disea como
v=
con K tal que la matriz (A
lazo cerrado es

BK) sea Hurwitz, entonces el sistema en


= f0 (, )
= (A BK)
149

(4.1)

y el origen = 0 del subsistema lineal


= (A

BK)

es GEE. Es el origen del sistema en lazo cerrado (, ) = (0, 0) asintticamente estable?


Ntese que una condicin necesaria para que el origen de (4.1) sea
(global y) asintticamente estable es que el origen del sistema
= f0 (, 0)
sea (global y) asintticamente estable (por qu?). Entonces el sistema
(4.1) es una conexin en cascada (o serie) de dos sistemas asintticamente estables. En el caso lineal e invariante en el tiempo esto es suficiente
para asegurar la establidad del origen del sistema completo, pero en el
caso no lineal la situacin es ms compleja, como se ver a continuacin.
150

4.1.1.

Estabilidad Local de la cascada

Lema 4.1 El origen de (4.1) es Asintticamente Estable (localmente!)


si el origen = 0 del sistema
= f0 (, 0)
es local y asintticamente estable.
Prueba. Por el teorema converso de Lyapunov [28, Teorema 4.16]
existe una funcin de Lyapunov V1 (), contnuamente diferenciable, tal
que
@V1 ()
f0 (, 0) 3 (kk)
@
en alguna vecindad de = 0, dnde 3 es una funcin tipo K. Sea
P = P T > 0 la solucin de la ecuacin algebraica de Lyapunov
P (A

BK) + (A BK)T P =
151

y use
V (, ) = V1 () + k

T P , k > 0

como candidata a funcin de Lyapunov para (4.1). Ntese que aunque


V no es continuamente diferenciable en la variedad = 0 el teorema de
Lyapunov sigue siendo vlido en este caso (por qu?).
La derivada V est dada por
h
i
@V1 ()
k
V =
f0 (, ) + p
T P (A BK) + (A BK)T P
@
2 T P
@V1 ()
@V1 ()
k T
p
=
f0 (, 0) +
[f0 (, ) f0 (, 0)]
@
@
2 T P

En cualquier vecindad acotada V del origen, y por la diferenciabilidad

152

contnua de V1 y f0 , es posible acotar


kf0 (, )
y entonces

f0 (, 0)k k1 kk
@V1 ()
k2
@

3 (kk) + k1 k2 kk

kk3 kk

para algunas constantes positivas k1 , k2 , k3 . Eligiendo k > k1 k2 /k3 se


asegura que V es negativa definida. Por lo tanto el origen es local y
asintticamente estable.
Comentario 4.2 El lema anterior slo es vlido en regiones acotadas
y no puede ser extendido al caso global.
Comentario 4.3 Ntese que la funcin candidata de Lyapunov ms
simple, es decir, la suma de las funciones de Lyapunov para cada uno
de los sistemas de la cascada, W (, ) = V1 () + k T P , k > 0 no es
til en este caso!
153

4.1.2.

Estabilidad Global de la cascada

Si el origen = 0 del sistema


= f0 (, 0)
es global y asintticamente estable ser el origen de la cascada
= f0 (, )
= (A BK)
global y asintticamente estable? En general la respuesta es NO!
Ejemplo 4.4 Considere el sistema de segundo orden
= + 2
= v
El origen de
=
154

es global y exponencialmente estable, y el origen de


=

k , k > 0

es tambin global y exponencialmente estable. Sin embargo, el origen de


=
=

+ 2
k , k > 0

no es global y asintticamente estable! (Ver simulaciones en Figura 4.4)


Para calcular la regin de atraccin del origen, considere la variable
v = y ntese que
v =
+ =

+ 2 2

k =

(1 + k) v + v 2

Si v0 = (1 + k), entonces v (t) = 1 + k para todo t


Si v0 > (1 + k), entonces v (t) ! 1 cuando t ! 1.
155

0.

x = x + x2 y
y=2y
2

4
2

1
x

Figura 4.1: Simulaciones con k = 2


156

Si v0 < (1 + k), entonces v (t) ! 0 cuando t ! 1.


Por lo tanto el conjunto { < 1 + k} es invariante positivo y, mediante
un anlisis adicional, se puede mostrar que corresponde a la regin de
atraccin del sistema.
Podra pensarse que la cascada se puede estabilizar, dado que el
sistema maestro () es estable y el esclavo () es tambin globalmente
estable con entrada cero, haciendo que (t) ! 0 rpidamente. Aunque
esto es razonable, y funciona bien en muchas ocasiones, no es siempre
cierto debido al Fenmeno de Pico.
Ejemplo 4.5 Considere el sistema de tercer orden
= 12 (1 + 2 ) 3
1 = 2
2 = v
157

El origen del subsistema esclavo


=

1 3

es global y asintticamente estable. Si se define el control v como


v=

k 2 1

2k2 ,

K , k > 0

entonces el subsistema maestro ser


= (A

BK) =

0
k2

1
2k

cuyos valores propios son { k , k}, y la matriz de transicin de estados est dada por

(1 + kt) e kt
te kt
(A BK)t
e
=
2
kt
k te
(1 kt) e kt
158

0
0

0.5

1.5

Figura 4.2: Grficas de la funcin k 2 te


[1 , 5 , 10 , 20]
159

2.5

kt

3.5

para valores de k =

Cuando k ! 1 las trayectorias del sistema maestro convergen a cero


arbitrariamente rpido. El trmino (2, 1) tiene un pico (Ver 4.5)
max k 2 te

= k 2 te

kt

t 0

Si
(0) =

1
0

=) =

kt

t=1/k

=) (t) =
1
1
2

=) 2 (t) =

k 2 te

k
! 1 cuando k ! 1
e

(1 + kt) e kt
k 2 te kt
kt

3 , (0) = 0

02
1 + 02 [t + (1 + kt) e

kt

1]

Si 02 > 1 el sistema tendr un escape a infinito en tiempo finito, si k se


selecciona suficientemente grande.
160

Lema 4.6 El origen del sistema en cascada


= f0 (, )
= (A BK)
es global y asintticamente estable si el sistema
= f0 (, )
es Entrada-a-Estados Estable.
Prueba. Use el Lema 4.7 de [28]: El origen del sistema
x 1 = f1 (x1 , x2 )
x 2 = f2 (x2 )
es GAE si el sistema esclavo es ISS y el origen del sistema maestro es
GAE.
161

4.1.3.

Robustez ante incertidumbres

La discusin anterior muestra que todo sistema Linealizable Parcialmente (o linealizable entrada-salida), y que sea de fase mnima, puede
ser estabilizado (localmente) mediante la ley de control por retroalimentacin de estados
u = (x)

(x) KT2 (x)

Comentario 4.7 Ntese que esta ley de control es independiente de la


funcin (x) = T1 (x), que satisface (en el caso de una sola entrada) la
ecuacin en derivadas parciales (EDP)
@ (x)
g (x) = 0
@x
Cul es el efecto de las incertidumbres en (x),
162

(x), y T2 (x) ?

Sean
(x), (x), y T2 (x) modelos nominales de (x), (x), y T2 (x).
Con la ley de control
u=
(x)

(x) K T2 (x)

el sistema en lazo cerrado es (en coordenadas z)


= f0 (, )
h
= A + B (x)
(x)

y por lo tanto

(x) K T2 (x)

i
(x) + BKT2 (x)

= f0 (, )
= (A BK) + B (z)
h
i
=
+ 1 KT2 1 K T2

BK

(4.2)

Este sistema constituye una perturbacin del sistema nominal. Lo


analizamos utilizando las herramientas de sistemas perturbados.
163

Lema 4.8 Considere el sistema en lazo cerrado (4.2), dnde (A


es Hurwitz.

BK)

Si k (z)k " para todo z, y = f0 (, ) es Entrada-a-Estados


Estable, entonces el estado z ser Global y Finalmente Acotado
por una funcin clase K de ".
Si k (z)k k kzk en alguna vecindad de z = 0, con k suficientemente pequea, y el origen de = f0 (, 0) es exponencialmente
estable, entonces z = 0 es un punto de equilibrio exponencialmente
estable del sistema (4.2).
Prueba. Sea

V () = T P

dnde P = P T > 0 es la solucin de la ecuacin algebraica de Lyapunov


P (A

BK) + (A
164

BK)T P =

I .

Esta es una funcin de Lyapunov para el subsistema lineal nominal de


(4.2). Luego, tomando su derivada a lo largo de las trayectorias del
sistema perturbado (4.2) se obtiene

V () = T P (A BK) + (A BK)T P + 2 T P B (z)

kk22 + 2 kP Bk2 kk2 k (z)k2

Si k (z)k2 " entonces se tiene


V ()

kk22 + 2" kP Bk2 kk2

1
kk22 , 8 kk2
2

4" kP Bk2

Por lo tanto, aplicando el teorema 4.18 de [28] se puede concluir que


existen un tiempo finito T y una constante positiva c tales que
k (t)k2 c" , 8t
165

De la estabilidad Entrada-a-Estados del sistema = f0 (, ) se sigue


que

k (t)k2 (k (T )k2 , t T ) + 0 sup k (t)k2


t T

(k (T )k2 , t

T) +

(c")

dnde es una funcin tipo KL, y 0 es una funcin tipo K. Despus


de un cierto tiempo finito se satisface
(k (T )k2 , t

T) "

y por lo tanto z (t) est finalmente acotada


kz (t)k2 k (t)k2 + k (t)k2 c" + " +
que es una funcin tipo K de ".
166

(c")

Para probar la segunda parte del lema, recurdese que por el teorema converso de Lyapunov [28, Teorema 4.16] existe una funcin de
Lyapunov V1 (), contnuamente diferenciable, tal que
c1 kk22 V1 () c2 kk22

@V1 ()
f0 (, 0) c3 kk22
@
@V1 ()
c4 kk2
@
2
en alguna vecindad de = 0. Usando

V (z) = bV1 () + T P , b > 0

167

como candidata a funcin de Lyapunov para (4.2) se obtiene


@V1 ()
@V1 ()
V = b
f0 (, 0) + b
[f0 (, ) f0 (, 0)] +
@
@
h
i
+ T P (A BK) + (A BK)T P + 2 T P B (z)

bc3 kk22 + bc4 L kk2 kk2

kk22 +

+ 2k kP Bk2 kk22 + 2k kP Bk2 kk2 kk2

T
kk2
bc3
=
1
kk2
bc
L
+ k kP Bk2
2 4

T
kk2
kk2
,
Q
kk2
kk2

168

1
bc L
2 4

+ k kP Bk2
2k kP Bk2

kk2
kk2

dnde L es una constante de Lipschitz de f0 (, ) con respecto a .


Haciendo b = k, se puede ver que

2
1
det Q = kc3 (1 2k kP Bk2 )
kc4 L + k kP Bk2
2
(
"

2 # )
1
= k c3
2c3 kP Bk2 +
c4 L + kP Bk2
k >0
2
si
k<h

c3
2c3 kP Bk2 +

1
cL
2 4

+ kP Bk2

Entonces Q es positiva definida para una k suficientemente pequea.


Por lo tanto el origen es Exponencialmente Estable.

169

Leccin 5
Funciones de Lyapunov de
control

170

Motivacin:
Para x = f (x): Estabilidad asinttica , Existe una funcin de
Lyapunov.
Para x = f (x, u): Estabilizabilidad asinttica , Existe una funcin de Lyapunov de Control.
Considere el sistema SI (El caso MI es anlogo)
x = f (x) + g (x) u
f (0) = 0 , x 2 Rn , u 2 R

y suponga que existe una ley de control por retroalimentacin de los


estados
u = (x)
contnua, tal que el origen del sistema en lazo cerrado
x = f (x) + g (x)
171

(x)

es asintticamente estable.
Por el teorema converso de Lyapunov, existe una funcin de Lyapunov V (x) tal que
@V (x)
[f (x) + g (x)
@x

(x)] < 0 , 8x 2 D , x 6= 0

Si u = (x) estabiliza globalmente al origen, entonces D = Rn y V (x)


es radialmente no acotada.
De la desigualdad
@V (x)
[f (x) + g (x)
@x

(x)] < 0 , 8x 2 D , x 6= 0

se concluye que
@V (x)
@V (x)
g (x) = 0 , para algn x 2 D , x 6= 0 =)
f (x) < 0
@x
@x
172

Adems, ya que (x) es contnua, y (0) = 0, 8 > 0 , 9 > 0 tal


que si x 6= 0 y kxk < existe u con kuk < tal que
@V (x)
[f (x) + g (x) u] < 0
@x
Propiedad de control pequeo (PCP)
Definicin 5.1 Una funcin V (x), contnuamente diferenciable y positiva definida, es una Funcin de Lyapunov de Control (FLC) para el
sistema
x = f (x) + g (x) u
si

@V (x)
@V (x)
g (x) = 0 , para algn x 2 D , x 6= 0 =)
f (x) < 0
@x
@x
(5.1)
173

Satisface la propiedad de Control Pequeo (PCP).


Es una Funcin de Lyapunov de Control Global si es radialmente no
acotada y (5.1) se satisface para D = Rn .
Teorema 5.2 (Teorema de Arstein) Sea el sistema
x = f (x) + g (x) u ,
con f (0) = 0. Entonces el orgen x = 0 es Globalmente Estabilizable Asintticamente por una ley de control retroalimentado u = (x),
contnua en todas partes, excepto posiblemente en x = 0, si y slo si
este posee una FLC. Si adems se satisface la PCP, entonces la ley de
control puede ser contnua en todas partes.
Teorema 5.3 Sea V (x) una FLC para el sistema
x = f (x) + g (x) u ,
174

entonces el origen es estabilizable por


8
q
2
4
f + ( @V
f +( @V
g
< @V
@x
@x )
@x )
si
g
u = (x) =
( @V
@x )
:
0,
si

@V (x)
g
@x
@V (x)
g
@x

(x) 6= 0
(x) = 0 .

Frmula de Sontag

La funcin (x) es contnua para toda x 2 D0 (una vecindad del orgen) que incluye x = 0.
Si f y g son suaves, entonces (x) es suave para x 6= 0.
Sea V (x) una FLC global, entonces el control u =
balmente el origen.

(x) estabiliza glo-

Comentario 5.4 En el caso multivariable (u 2 Rm ) la frmula de Son175

tag se puede escribir como


8
q
< Lf V (x)+ [Lf V (x)]2 +|Lg V (x)|4
[Lg V (x)]T si Lg V (x) 6= 0
u = (x) =
|Lg V (x)|2
: 0,
si Lg V (x) = 0 .
Frmula de Sontag

Ntese que en este caso g (x) es una matriz con m columnas, g (x) =
[g1 (x) , g2 (x) , , gm (x)], y
Lg V (x) = [Lg1 V (x) , Lg2 V (x) , , Lgm V (x)] .
Prueba. Para la prueba de las propiedades de
vase [46, Seccin 5.9] o [24, Seccin 9.4]. Ahora se probar que el control propuesto
efectivamente estabiliza el origen
@V (x)
[f (x) + g (x)
V =
@x
176

(x)]

Consideremos dos casos:


Si @V@x(x) g (x) = 0 entonces
@V (x)
[f (x) + g (x)
@x
Si

@V (x)
g
@x

(x)] =

(x) 6= 0
@V
f
@x

@V (x)
f (x) < 0 para x 6= 0
@x
q

@V
+
f + @V
g
@V
@V
@x
@x

V =
f
g
@V
@x
@x
g
@x
s
2
4
@V
@V
=
f +
g < 0 para x 6= 0
@x
@x

(x) hace que el punto de equilibrio x = 0 sea global y asintticamente estable


177

(x) es tan suave como Lf V y Lg V , excepto posblemente en el


orgen (x = 0).
Problema: Cmo se puede encontrar una Funcin de Lyapunov de Control (FLC)?
Comentario 5.5 Las propiedades de FLC y PCP se preservan ante transformaciones de retroalimentacin, es decir, retroalimentacin
y cambio de coordenadas (difeomrfica).
Si se conoce algn control estabilizante y una funcin de Lyapunov
correspondiente V , entonces V es una FLC.
Linealizacin por retroalimentacin

x = f (x) + G (x) u , z = T (x) , z = (A


178

BK) z

P (A

BK) + (A

BK)T P =

Q , Q = QT > 0

V (z) = z T P z = T T (x) P T (x) es una FLC


Mediante el diseo de Backstepping se obtiene una FLC.
Comentario 5.6 Una ley de control estabilizante alternativa para sistemas linealizables exactamente se puede obtener de la siguiente manera:
Encuentre una FLC para el sistema LIT transformado (resolviendo la ecuacin algebraica de Lyapunov)
Use la frmula de Sontag en vez de la ley de control linealizante.
Ejemplo 5.7
x = ax

bx3 + u , a, b > 0
179

Linealizacin por retroalimentacin:


(k + a) x + bx3 , k > 0 , =) x =

u=

kx

1
V (x) = x2 es una FLC
2
@V (x)
@V (x)
g (x) = x ,
f (x) = x ax
@x
@x
@V
f
@x

2
@V
f
@x
@V
g
@x

4
@V
g
@x

x (ax

bx3

q
bx ) + x2 (ax
3

=
(x) =

ax + bx

180

q
x (a

bx2 )2 + 1

bx3 )2 + x4

Comprela con
u=
Mtodo
LR-u
LR-LC
FLC-u
FLC-LC

ax + bx3

kx , k > 0 .

Expresin
ax + bx3 kx
x =q kx

ax + bx3 x (a bx2 )2 + 1
q
x = x (a bx2 )2 + 1

pequeo |x|
(a + k) x
x = kx
p
a + a2 + 1 x
p
x =
a2 + 1x

Lema 5.8 Sea V (x) una FLC para el sistema


x = f (x) + g (x) u ,
y supngase que

@V (0)
=0.
@x
181

gran |x|
bx3
x = kx
ax
x =

bx3

Entonces la frmula de Sontag tiene un mrgen de ganancia de


es decir, u = k (x) es estabilizante para toda k 12 .

1
2

, 1 ,

Prueba. Sea
2
3
s
2
4
1
@V
@V
@V
q (x) = 4
f+
f +
g 5 , q (0) = 0 .
2
@x
@x
@x
Si

@V (x)
g (x) 6= 0 =) q (x) > 0
@x

@V (x)
g (x) = 0 =) q (x) = 0
@x
q (x) es positiva semidefinida.
Si

u = k (x) =) x = f (x) + g (x) k (x)


182

@V (x)
@V (x)
V =
f (x) +
g (x) k (x)
@x
@x
Si

Si
pero

@V (x)
@V (x)
g (x) = 0 =) V =
f (x) < 0 para x 6= 0
@x
@x

@V (x)
g (x) 6= 0 =) V =
@x

q (x) +

q (x)+q (x)+

@V (x)
@V (x)
f (x)+
g (x) k (x)
@x
@x

@V (x)
@V (x)
f (x) +
g (x) k (x) =
@x
@x
2
3
s

2
4
1 4 @V
@V
@V
k
f+
f +
g 5
2
@x
@x
@x
183

Una modificacin de la frmula de Sontag


Eljase una funcin
(x)

0y

(x) tal que

(0) = 0

Si una solucin acotada de la ecuacin x = f (x) is tal que (x (t))


0, entonces x (t) ! 0 cuando t ! 1. (Por ejemplo, esto es cierto
si (x) > 0 para toda x 6= 0.)

Dada una FLC V (x) considere la ley de control dada por


8
q
< Lf V (x)+ [Lf V (x)]2 + (x)|Lg V (x)|2
[Lg V (x)]T si Lg V (x) 6= 0
u = (x) =
|Lg V (x)|2
: 0,
si Lg V (x) = 0 .
Obsrvese que

La eleccin de (x) = |Lg V (x)|2 satisface los requisitos anteriores


y resulta en la Frmula de Sontag.
184

Hay muchas otras elecciones posibles de

(x): Gran flexibilidad!

Cules son las propiedades de esta ley de control modificada?


(x) hace que el punto de equilibrio x = 0 sea global y asintticamente estable
(x) es tan suave como Lf V , Lg V y
dnde (x) = Lf V (x) = 0.

(x), excepto posblemente

Si Lf V , Lg V y (x) son localmente Lipschitz contnuas, entonces


tambin lo ser (x), excepto posblemente en x = 0.
Si V (x) tiene los mismos conjuntos de nivel que la solucin de
la ecuacin de Hamilton-Jacobi-Bellman (HJB) asociada con la
funcin de costo
1

J=
(x ( )) + |u ( )|2 d
0

185

entonces

(x) es ptima globalmente!

Este hecho se puede usar para disear leyes de control localmente


ptimas.

Literatura
Algunas referencia para esta leccin son: [12, Captulo 12], [46, Seccin 5.9]

186

Leccin 6
Backstepping

187

Este es un mtodo para construir una Funcin de Lyapunov de Control (FLC) para una clase especial de sistemas.

6.1.

El caso ms simple: Backstepping de integrador

La idea bsica del mtodo conocido como "backstepping" se puede


explicar, en su forma ms simple, considerando el sistema con entrada
escalar
= f () + g ()
= u , 2 Rn , 2 R , u 2 R
Ntese que este sistema se puede ver como una conexin en cascada,
dnde el maestro es un integrador y el esclavo es el sistema no lineal =
f () + g () . El objetivo de control es estabilizar el origen utilizando
retroalimentacin de los estados. El diseo se divide en dos etapas:
188

6.1.1.

Diseo del Control virtual:

Vase a como una entrada de control virtual del sistema


= f () + g ()
Suponga que existe una ley de control retroalimentado
=

()

que estabiliza el origen de


= f () + g () ()
y que, adems, conocemos una funcin de Lyapunov V () que lo asegura
@V ()
V () =
[f () + g () ()]
@
189

W () , 8 2 D

6.1.2.

Diseo del control verdadero por backstepping

Cambio de coordenadas Como no se puede implementar el control


virtual = (), definimos el error como una nueva variable
z=

()

Escribiendo el sistema en trminos de esta nueva variable se obtiene


= [f () + g () ()] + g () z
z = u @ @() [f () + g () ] .
Si se disea la variable de control como
@ ()
u=
[f () + g () ] + v
@
entonces el sistema se describe como
= [f () + g () ()] + g () z
z = v .
190

Comentario 6.1 Ntese que este sistema tiene la misma estructura


que el sistema original: Un integrador en cascada con un sistema no
lineal. Pero hay una diferencia fundamental: el sistema
= [f () + g () ()] + g () z
tiene un punto de equilibrio asintticamente estable cuando la entrada
z = 0. Esto no es siempre el caso en el sistema inicial.
Diseo del control por Lyapunov El diseo se realiza proponiendo
una funcin candidata de Lyapunov, en nuestro caso se puede usar
1
Vc (, ) = V () + z 2 .
2
El control v se elige de tal forma que V c
@V ()
@V ()
V c =
[f () + g () ()] +
g () z + zv
@
@
191

sea negativa definida. Aqui se propone


v=
con lo que

@V ()
g () z
@

kz , k > 0

V c

kz 2

W ()

El control finalmente resulta ser


@ ()
u=
[f () + g () ]
@

@V ()
g () z
@

kz , k > 0

Comentario 6.2 En este caso, y en contraste con la Linealizacin Parcial (Leccin 4), la suma de las funciones de Lyapunov para los sistemas
individuales se convierte en una funcin de Lyapunov para el sistema
en cascada! Esto es gracias a la accin del control!
Comentario 6.3 Tambin a diferencia de la Linealizacin Parcial (Leccin 4) el subsistema esclavo de la cascada no tiene que ser estable con
entrada cero, sino que se puede estabilizar mediante el control virtual!
192

Ejemplo 6.4 Considere el sistema


x 1 = x21 x31 + x2
x 2 = u ,
x 1 , x2 , u 2 R

Una ley de control virtual para el primer sistema


x2 =

(x1 ) =

x21

x1

estabiliza globalmente el origen de


x 1 =

x1

x31

como lo prueba la funcin de Lyapunov


1
V (x1 ) = x21 =) V =
2

x21

x41 < 0 , 8x1 2 R

Introduciendo el cambio de variables


z 2 = x2

(x1 ) = x2 + x1 + x21
193

el sistema se puede representar como


x 1 = x1 x31 + z2
z2 = u + (1 + 2x1 ) ( x1

x31 + z2 )

Se propone como candidata a Funcin de Lyapunov


1
1
Vc (x) = x21 + z22
2
2
cuya derivada
V c = x1
=
eligiendo

x21

x31 + z2 + z2 u + (1 + 2x1 ) x1 x31 + z2

x41 + z2 x1 + (1 + 2x1 ) x1 x31 + z2 + u

x1

u=

x1

(1 + 2x1 )
194

x1

x31 + z2

z2

se hace negativa definida


V c =

x21

x41

x21

x41

z22
x2 + x1 + x21

El mtodo puede ser aplicado recursivamente!


Ejemplo 6.5 Considere el sistema
x 1 = x21 x31 + x2
x 2 = x3 ,
x 3 = u ,
Para el sistema esclavo
x 1 = x21 x31 + x2
x 2 = x3 ,
195

una ley de control virtual es


x3 =

x1

(1 + 2x1 )

x1

x31 + z2

z2 =

(x1 , x2 )

estabiliza globalmente el origen como lo prueba la funcin de Lyapunov


1
1
V = x21 + z22 =) V =
2
2

x21

x41

z22 < 0 , 8 (x1 , x2 ) 2 R2

Introduciendo el cambio de variables


z 3 = x3

(x1 , x2 )

el sistema se puede representar como


x 1 = x21 x31 + x2
x 2 = (x1 , x2 ) + z3 ,
@
z3 = u @x
(x21 x31 + x2 )
1
196

@
@x2

( + z3 ) ,

Se propone como candidata a Funcin de Lyapunov


1
Vc (x) = V (x1 , z2 ) + z32
2
cuya derivada es
@V
@V
V c =
x21 x31 + x2 +
(z3 + ) +
@x1
@x2

@
@
+ z3 u
x21 x31 + x2
(z3 + )
@x1
@x2
2

x21 x41
x2 + x1 + x21 +

@V
@
+ z3
x2 x31 + x2
@x2 @x1 1
=

Eligiendo

u=

@V
@
+
x2
@x2 @x1 1

x31 + x2 +
197

@
(z3 + ) + u .
@x2
@
(z3 + )
@x2

z3

se hace negativa definida.

6.2.

Un caso ms general

La idea del backstepping puede generalizarse al sistema


= f () + g ()
= fa (, ) + ga (, ) u , ga (, ) 6= 0 ,

dnde 2 Rn , 2 R , u 2 R.
Mediante la ley de control
u=

1
[v
ga (, )

fa (, )]

el sistema se convierte en
= f () + g ()
= v ,
198

que est en la forma original.

6.3.

Sistemas en la Forma de Retroalimentacin Estricta

Aplicando la idea anterior en forma recursiva se puede concluir que


la idea de Backstepping puede ser aplicada a sistemas en la forma de
retroalimentacin estricta, es decir, un sistema descrito por
x = f0 (x) + g0 (x) z1
z1 = f1 (x, z1 ) + g1 (x, z1 ) z2 ,
z2 = f2 (x, z1 , z2 ) + g2 (x, z1 , z2 ) z3 ,
..
.
zk 1 = fk 1 (x, z1 , , zk 1 ) + gk 1 (x, z1 , , zk 1 ) zk ,
zk = fk (x, z1 , , zk ) + gk (x, z1 , , zk ) u ,
199

para todo x 2 Rn , z1 , , zk 2 R y

gi (x, z1 , , zi ) 6= 0 para 1 i k

Ejercicio 6.6 Halle el grado relativo si y = z1


Ejercicio 6.7 Halle la Dinmica Cero si y = z1 y
fi (x, 0) = 0 para 1 i k
Comentario 6.8 Ntese que el subsistema z es linealizable por retroalimentacin. As que el sistema en la forma de retroalimentacin estricta
es linealizable parcialmente (entrada/salida). As que el Backstepping se
aplica esencialmente a la clase de sistemas que son linealizables parcialmente.
Ejemplo 6.9 (Variacin del Ejemplo 4.4) Considere el sistema
= + 2
= u .
200

El sistema esclavo
=

+ 2

con la ley de control virtual


= 0 =) =

tiene el punto de equilibrio GEE, y


1
V0 = 2 =) V 0 =
2

2 , 8 2 R

es una funcin de Lyapunov. Se propone como candidata a Funcin de


Lyapunov a
1 2
V =
+ 2
2
cuya derivada es
V =

+ 2 + u =
201

2 + 3 + u

que se puede hacer negativa definida eligiendo el control


u=
V =

6.4.

k , k > 0

k 2 < 0 , 8 (, ) 2 R2

Backstepping en bloques

La idea del backstepping puede generalizarse al sistema de mltiples


entradas
= f () + G ()
= fa (, ) + Ga (, ) u , det Ga (, ) 6= 0 ,
dnde 2 Rn , 2 Rp , u 2 Rp . Suponga que existe una ley de control
retroalimentado suave
=

() , (0) = 0
202

que estabiliza el origen de


= f () + G () ()
y que, adems, conocemos una funcin de Lyapunov V (), suave y
positiva definida, que lo asegura
@V ()
V () =
[f () + G () ()]
@

W () , 8 2 D

para alguna funcin W () positiva definida.


Considere la funcin candidata de Lyapunov
Vc (, ) = V () +

1
[
2

203

()]T [

()] .

El control u se elige de tal forma que V c


@V ()
@V ()
V c =
[f () + G () ()] +
G () (
()) +
@
@

@ ()
+ [
()]T fa (, ) + Ga (, ) u
(f () + G () )
@

sea negativa definida. El control


"
@ ()
u = Ga 1 (, )
(f () + G () )
@

@V ()
G ()
@

fa (, )

k (

())] , k > 0

resulta en
@V ()
V c =
[f () + G () ()]
@
W () k (
())T (
204

k (
())

())T (

())

que muestra que el origen (, ) = (0, 0) es asintticamente estable.

6.5.
6.5.1.

Una versin (ligeramente) ms general


Agregando un integrador

Supngase que se tiene un sistema que es equivalente por retroalimentacin (transformacin + retroalimentacin de estados) al sistema
x 1 = F (x1 , x2 ) , x1 2 Rn m ,
x 2 = u
x2 , u 2 Rm

F (0, 0) = 0
F 2 C1

Supngase que se puede estabilizar al sistema reducido


x 1 = F (x1 , v) , v = control virtual
con una ley de control C 1
v = k (x1 ), k (0) = 0
205

y una funcin de Lyapunov V1 (x1 ), C 1 , propia y positiva definida, tales


que se cumple
@V1 (x1 )
F (x1 , k (x1 )) < 0, parax1 6= 0
@x1
Entonces se puede construir una FLC (Funcin de Lyapunov de Control)
para el sistema completo...

6.5.2.

FLC

Una funcin V (x1 , x2 ), C 1 , es FLC para el sistema completo si satisface las dos siguientes condiciones:
@V (x1 , x2 )
= 0 ) x2 = k (x1 )
(6.1)
@x2
@V (x1 , x2 )
@V1 (x1 )
x2 = k (x1 ) )
F (x1 , x2 ) =
F (x1 , k (x(6.2)
1 ))
@x1
@x1
206

Una solucin simple para (6.1-6.2) es


k (x1 )]T [x2

V (x1 , x2 ) = V1 (x1 ) + [x2

k (x1 )]

(6.3)

Otra solucin ms flexible es:


V (x1 , x2 ) =

V
1 (x1 )

(r) dr + [x2

k (x1 )]T

(x1 ) [x2

k (x1 )]

(6.4)

: [0, 1) ! [0, 1) es C 0 , con


1
0

(r) > 0 para r > 0

(r) dr = 1 (seleccin simple es

es C 1 , con
I)

(x1 ) =

1)

(x1 ) > 0 para todo x1 (seleccin simple

Esto hace a V (x1 , x2 ) una funcin C 1 , positiva definida y propia.


207

Verificacin de la propiedad de FLC:


8 V (x )
< 1 1
d
V (x1 , x2 ) =
(r) dr + [x2
dt :

k (x1 )]T

(x1 ) [x2

k (x1 )]

+ [x2

Si

@V (x1 , x2 )
@x2

@V1 (x1 )
F (x1 , x2 )
@x1

@ (x1 )
T
k (x1 )]
, F (x1 , x2 ) [x2 k (x1 )]
@x1

@k (x1 )
T
k (x1 )] (x1 ) u
F (x1 , x2 )
{z
}
@x1

(V1 (x1 ))

+2 [x2
|

9
=
;

@V
@x2

= 0 entonces x2 = k (x1 ) y luego

V (x1 , x2 ) =

(V1 (x1 ))

@V1 (x1 )
F (x1 , k (x1 )) < 0, para x1 6= 0 .
@x1
208

Adicionalmente V (x1 , x2 ) satisface la Propiedad de Control Pequeo


(PCP). Por lo tanto existe una ley de control por retroalimentacin
contnua (C 0 ) que estabiliza globalmente el orgen (por ejemplo, sese
la frmula de Sontag).
Si los datos son suaves, entonces la ley de control es suave.

6.5.3.

Ejemplo

Sea el sistema en el plano, con control escalar


x 1 = x31 + x21 + x2
x 2 = u

Con u = 0 el orgen (punto de equilibrio), es inestable, con escape


a infinito en tiempo finito.
La linealizacin en el origen no es estabilizable.
209

Reemplace a x2 por un control virtual en el subsistema x1 :


x 1 = x31 + x21 + v
El control virtual v = k (x1 ) =

2x1

x 1 =

x21 hace que el sistema

7x31

sea 0-GAE (punto 0 global y asintticamente estable), con funcin de


Lyapunov V (x1 ) = x21
Se propone como FLC para el sistema completo a
V (x1 , x2 ) = V1 (x1 ) + (x2

k (x1 ))2 = x21 + x2 + 2x1 + x21

Se puede usar la frmula de Sontag, o


Se puede construir un control polinomial que hace V < 0
h
i
3
3
2

V = 2x1 x1 + x1 + x2
n
h
io
3
+2 x2 + 2x1 + x21 u + 2 (1 + x1 ) x31 + x21 + x2
210

Cmo es el desempeo?
Hay muchas opciones para el control virtual
Hay muchas opciones para la FLC
Hay muchas opciones para la ley de control estabilizante.
Cmo explotar estos grados de libertad en el diseo para alcanzar un
buen desempeo en lazo cerrado? Problema Abierto.

6.6.

Desingularizacin

Cuando la ley de control k (x1 ) no es suficientemente suave (es solo


contnua C 0 pero no diferenciable C 1 ), entonces la Funcin V (x1 , x2 ) no
es C 1 y el procedimiento anterior no se puede aplicar adecuadamente.
En este caso hay dos alternativas:
211

Reemplazar al control k (x1 ) por un estabilizador ms suave (esto


siempre se puede hacer de acuerdo a Arstein). Pero esto en general
es complicado.
Aplicar una tcnica de desingularizacin (ver [40]). En este caso
se busca otra FLC suave (C 1 ).
Consideraremos un ejemplo de este segundo procedimiento (para ms
detalles consltese el artculo [40]).
Considere el sistema en el plano
x 1 = x1
x 2 = u .

x32

El sistema linealizado en el origen no es estabilizable, y por lo tanto no


existe una ley de control C 1 que estabilice asintticamente este punto.
Una ley de control (virtual) que estabiliza al esclavo es
1

x2 = k (x1 ) = (cx1 ) 3 , c > 1 ,


212

con funcin de Lyapunov


V1 (x1 ) = x21 , V 1 =

6.6.1.

2 (c

1) x21 .

BS Convencional

Si aplicamos el BS convencional se obtiene que la FLC propuesta


(6.3) es

1 2
1
x2 (cx1 ) 3
2
1
2
1
1
= x21 + x22 (cx1 ) 3 x2 + (cx1 ) 3
2
2

V (x1 , x2 ) = x21 +

Ntese que esta funcin es C 0 (contnua) pero no es diferenciable en


1
todas partes debido al trmino (cx1 ) 3 . De hecho, la funcin no es localmente Lipschitz (la derivada en x1 = 0 es infinita). Si continuamos
213

con el procedimiento estndar se obtiene que


V

= 2x1 x1

x32

+ x2

(cx1 )

1
3

c (x1

x32 )
2

(c |x1 |) 3

Como
x1

x32 = x1 (x2 k (x1 ) + k (x1 ))3


= x1 (x2 k (x1 ))3 3 (x2 k (x1 ))2 k (x1 )
3 (x2 k (x1 )) k 2 (x1 ) k 3 (x1 )

=
(1 c) x1 (x2 k (x1 )) x22 + x2 k (x1 ) + k 2 (x1 )

214

entonces
V

2 (1
+ (x2

2 (1
+ (x2

c) x21

k (x1 )) x22 + x2 k (x1 ) + k 2 (x1 )


!
c (x1 x32 )

2x1 (x2

k (x1 )) u
c) x21
k (x1 )) u

(c |x1 |) 3

c (x1

x32 )

(c |x1 |)

2
3

2x1 x22 + x2 k (x1 ) + k 2 (x1 )

As que una ley de control estabilizante sera


u =

c (x1

x32 )
2

(c |x1 |) 3

+ 2x1 x22 + x2 k (x1 ) + k 2 (x1 )

x2

1
(cx1 ) 3 , > 0 .

Ntese que esta ley de control es inaceptable, ya que posee una singularidad (discontinuidad infinita) cuando x1 = 0.
215

6.6.2.

Desingularizacin

Ntese que cuando se establece la ley de control virtual se cumple


1

x2 = k (x1 ) = (cx1 ) 3 , c > 1 ,


que tambin puede ser expresada en forma equivalente como
' (x1 , x2 ) , x2p
2

k 2p

(x1 ) = x2p
2

(cx1 )

Ntese tambin que la funcin


(x1 , x2 ) ,

x2

' (x1 , s) ds

es C 1 en todas partes y, para toda x1


lm

|x2 |!1

(x1 , x2 ) = 1 .
216

2p 1
3

= 0, p

2.

Es posible probar (hacerlo!) que la funcin


V (x1 , x2 ) =

(x1 , k (x1 )) + V1 (x1 )

(x1 , x2 )

es una FLC para el sistema, para toda


> 0 y toda real tal que
V1 (x1 ) sea contnuamente diferenciable (C 1 ). En particular,
V (x1 , x2 ) =

x2p
2
2p

es un FLC cuando

x2 (cx1 )
1
.
2

x2p
V (x1 , x2 ) = 2
2p

2p 1
3

2p
2p 1
(cx1 ) 3 +
2p

x21

Eligiendo = p3 , la FLC es
x2 (cx1 )

2p 1
3

2p 1 2p
c3 +
2p

2p

x13

y es posible probar que la PCP se satisface. Por lo tanto, existe una ley
de control contnua en todo el espacio que estabiliza el orgen.
217

Leccin 7
Control basado en pasividad

218

La propiedad de pasividad, que poseen algunos sistemas, puede ser


usada para el diseo de controladores.

7.1.

Idea bsica

Considere el sistema

x = f (x, u) , x 2 Rn , u 2 Rp
:
y = h (x) , y 2 Rp
f (0, 0) = 0 , h (0) = 0
Definicin 7.1 El sistema es pasivo si existe una funcin de almacenamiento de energa V (x), contnuamente diferenciable y positiva semidefinida, tal que
@V (x)
V =
f (x, u) uT y, 8x 2 Rn , u 2 Rp
@x
219

Definicin 7.2 El sistema es de estado cero observable si la nica trayectoria del sistema con entrada u = 0
x = f (x, 0)
que puede hacer la salida cero, es decir, que puede permanecer en el
conjunto {h (x) = 0} es la solucin trivial x (t) 0.
Un resultado bsico de estabilizacin asinttica para sistemas pasivos
es el siguiente
Teorema 7.3 Si el sistema es
1. Pasivo, con funcin de almacenamiento positiva definida y radialmente no acotada, y
2. de estado cero observable
220

entonces el origen x = 0 puede ser estabilizado global y asintticamente


mediante la ley de control
u=

(y)

dnde es cualquier funcin localmente Lipschitz, tal que


es pasiva
y T (y) > 0 , 8y 6= 0

(0) = 0 y

Prueba. Use la funcin de almacenamiento V (x) como candidata


a funcin de Lyapunov para el sistema en lazo cerrado
x = f (x,

(y))

Su derivada es
@V (x)
V =
f (x, u)
@x
221

y T (y) 0

negativa semidefinida. Adems V = 0 si y slo si y = 0. De la propiedad


de estado cero observable se concluye
y (t) 0 =) u (t) =

(y (t)) 0 =) x (t) 0

Por el principio de invariancia de Lasalle el origen es global y asintticamente estable.


Recurdese que, si la funcin de almacenamiento es positiva definida, el origen del sistema pasivo es estable, y que la interconexin en
retroalimentacin negativa de sistemas pasivos es pasiva. Por lo tanto el
teorema se puede interpretar de la siguiente manera: la no linealidad pasiva inyecta amortiguamiento al sistema, haciendo que las trayectorias
converjan al origen.
Ntese que hay una gran libertad de eleccin en la forma de la funcin de inyeccin de amortiguamiento : por ejemplo, se pueden satisfacer restricciones de acotamiento de la entrada.
Ya que el teorema slo es til para sistemas pasivos, su utilidad se
incrementa si se pueden convertir sistemas no pasivos en pasivos. Hay
222

dos formas bsicas de hacer pasivo a un sistema:


1. Mediante la seleccin de la salida
2. Por retroalimentacin de estados, o
ambos.

7.2.

Pasivizacin por eleccin de la salida

Considere el sistema afn en las entradas


x = f (x) + G (x) u
y suponga que existe una funcin V (x) contnuamente diferenciable,
positiva definida, tal que
@V (x)
f (x) 0 , 8x
@x
223

Entonces el sistema es pasivo con respecto a la salida

T
@V (x)
y = h (x) ,
G (x)
@x
ya que

@V (x)
@V (x)
V =
[f (x) + G (x) u]
G (x) u = y T u .
@x
@x
Si adicionalmente es de estado cero observable, entonces puede utilizarse
el teorema para estabilizar asintticamente el origen.
Comentario 7.4 Ntese que no existe una nica salida pasiva. Para
cada eleccin de V (x) se obtiene una salida pasiva (posiblemente) diferente.
Considere, por ejemplo, como funcin de Lyapunov alternativa
W (x) = (V (x))
224

dnde es una funcin tipo K, contnuamente diferenciable (K1 para el


caso global). Entonces una salida pasiva con esta funcin de Lyapunov
sera

T
T
@W
(x)
@V (x)
0

y = h (x) ,
G (x) = (V (x))
G (x) = 0 (V (x)) h (x)
@x
@x
Ejemplo 7.5
x 1 = x2 ,
x 2 = x31 + u .
Con u = 0
1
1
V (x) = x41 + x22 =) V = x31 x2
4
2

x2 x31 = 0

El sistema es pasivo con respecto a la salida


y=

@V (x)
@V (x)
G (x) =
= x2
@x
@x2
225

Es de estado cero observable? Si


con u = 0, y (t) 0 =) x (t) 0
Aplicando el teorema el origen se puede estabilizar global y asintticamente con cualquier pasiva, como por ejemplo

2k
u = kx2 , o u =
tan 1 x2 , k > 0

7.3.

Pasivizacin por retroalimentacin de


estados

La pasivizacin por eleccin de la salida exige que el sistema tenga


un punto de equilibrio estable, por lo que muchos sistemas no pueden ser
pasivizados por tal mtodo. Para poder considerar sistemas no estables,
se requiere utilizar una retroalimentacin preliminar.
226

Definicin 7.6 El sistema

x = f (x) + G (x) u , x 2 Rn , u 2 Rp
A :
y = h (x) , y 2 Rp

es equivalente por retroalimentacin a un sistema pasivo si existe


u = (x) + (x) v
tal que
x = f (x) + G (x) (x) + G (x) (x) v , x 2 Rn , v 2 Rp
y = h (x) , y 2 Rp

sea pasivo.

Comentario 7.7 Esta definicin es anloga a la de sistemas linealizables por retroalimentacin. Una diferencia importante es que en la de
pasivizacin no se requiere de una transformacin de estados, ya que
la pasividad, a diferencia de la linealidad, es una propiedad invariante
ante transformaciones del estado.
227

No cualquier sistema puede ser pasivizado mediante retroalimentacin de estados.


Teorema 7.8 El sistema

x = f (x) + G (x) u , x 2 Rn , u 2 Rp
A :
y = h (x) , y 2 Rp
es localmente equivalente por retroalimentacin a un sistema pasivo, con
funcin de almacenamiento positiva definida, si:
1. En x = 0 el sistema tiene grado relativo uno, y
2. Es de fase mnima dbil, es decir, la dinmica cero tiene un punto
de equilibrio estable en el origen, con una funcin de Lyapunov
positiva definida.
Prueba. Se har la prueba para el caso SISO. Si el grado relativo
es = 1 se puede llevar a la Forma Normal mediante un difeomorfismo
228

local z = T (x)
8
< = f0 (, )
Forma Normal:
= Lf h (x) + Lg h (x) u
:
y=

Por la segunda hiptesis la dinmica cero


= f0 (, 0)

tiene un punto de equilibrio estable en = 0 y existe una funcin de


Lyapunov W () tal que
= @W () f0 (, 0) 0
W
@
en una vecindad del origen.
Como se asume que todas las funciones son suaves resulta que, en
particular, f0 (, ) es contnuamente diferenciable. Por el teorema del
229

valor medio del clculo diferencial se sabe que existe una funcin contnua F (, ) tal que
f0 (, )

@f0 (, )
, 2 (0, )
@
1
@f0 (, )
=
d
@
0

f0 (, 0) =

, F (, )

Considere como funcin de almacenamiento del sistema a


1
V (, ) = W () + 2
2
Su derivada temporal a lo largo de las trayectorias del sistema, cuando
se aplica un control por retroalimentacin de estados

1
@W ()
F (, y) Lf h (x) + v ,
u=
Lg h (x)
@
230

es
@W ()
V =
f0 (, ) + [Lf h (x) + Lg h (x) u]
@
@W ()
@W ()
=
f0 (, 0) +
[f0 (, y) f0 (, 0)] + y [Lf h (x) + Lg h (x) u]
@
@

@W ()
@W ()
=
f0 (, 0) + y
F (, y) + Lf h (x) + Lg h (x) u yv
@
@
Ejemplo 7.9 Manipulador robtico con p articulaciones
M (q) q + C (q, q)
q + Dq + g (q) = u , q, u 2 Rp
dnde
M = MT > 0 ,

2C

=
231

2C

, D = DT

El objetivo es estabilizar el sistema en el punto q = qr . Definiendo el


error de regulacin
e = q qr , e = q
la dinmica en estas variables queda
M (q) e + C (q, q)
e + De + g (q) = u
Ntese que (e, e)
= (0, 0) no es un punto de equilibrio con u = 0. Con
el control
u = g (q)
p (e) + v
dnde
p

(0) = 0 , eT

(e) > 0 , 8e 6= 0

el sistema en lazo cerrado se convierte en

M (q) e + C (q, q)
e + De +
232

(e) = v

La funcin positiva definida


e
1 T
T
V = e M (q) e +
p ( )d
2
0
tiene como derivada
1
1
1
V = eT M (q) e + e T M (q) e + e T M (q) e + Tp (e) e
2
2
2
1
1 T
T
= [ C (q, q)
e De
e
p (e) + v] e + e [ C (q, q)
2
2
1
+ e T M (q) e + Tp (e) e
2
i
1 h
= e T M
2C e e T De e T p (e) + Tp (e) e + e T v
2
= e T De + e T v e T v

De

(e) + v]

Entonces, si se elige la salida y = e el sistema es pasivo, y V es una


funcin de almacenamiento positiva definida (es radialmente no acotada?)
233

Es el sistema de estado cero observable? Si, ya que con v = 0


y (t) = e (t) 0 =) e (t) 0 =)

(e (t)) 0 =) e (t) 0 .

Entonces se puede aplicar el teorema bsico: el origen puede ser estabilizado asintticamente (Globalmente?) aplicando una ley de control
v=
dnde
d

(0) = 0 , e T

El control final queda


u = g (q)

(e)

(e)
> 0 , 8e 6= 0 .
p

(e)

(e)

que contiene un trmino proporcional y uno derivativo. Un caso especial


corresponde a funciones lineales
u = g (q)

Kp e

Kd e , Kp = KpT > 0 , Kd = KdT > 0 .


234

Cmo se comparan el control basado en pasividad con la linealizacin por retroalimentacin?


Ejemplo 7.10 Considere el sistema
x 1 = x2
x 2 = h (x1 ) + u
con
h (0) = 0 , x1 h (x1 ) > 0 , 8x1 6= 0
Diseo por linealizacin por retroalimentacin:
u = h (x1 ) (k1 x1 + k2 x2 )

0
1
x =
x
k1
k2
235

Diseo basado en pasividad: Considere la funcin de almacenamiento


de energa
x1
1
V (x) =
h (z) dz + x22
2
0
V = h (x1 ) x2 x2 h (x1 ) + x2 u = x2 u
Entonces el sistema es pasivo si la salida es
y = x2
Es el sistema de estado cero observable? Si, ya que con u = 0
y (t) = x2 (t) 0 =) h (x1 (t)) 0 =) x1 (t) 0 .
Entonces la ley de control
u=

(x2 ) ,

(0) = 0 , x2 (x2 ) > 0 , 8x2 6= 0


236

estabiliza asintticamente (globalmente?) el origen de


x 1 = x2
x 2 = h (x1 )
Linealizacin:
x =

1
h0 (0)

(x2 )

x, k=

(0)

El polinomio caracterstico es

s1,2

s2 + ks + h0 (0) = 0
s
2
k
k
=

h0 (0)
2
2

cuando k vara entre 0 ! 1, una p


de las races no puede moverse
a la izquierda del punto Re [s] =
h0 (0)
237

Ventajas/Desventajas del control basado en pasividad:


1. Ventaja: El control basado en pasividad no requiere un modelo de la funcin no lineal h (x1 ), por lo que es robusto ante
variaciones en ella,
2. Ventaja: Flexibilidad en la eleccin de
restricciones de la entrada.

(x2 ), para satisfacer

3. Desventaja: la velocidad de convergencia no puede ser asignada arbitrariamente.


La desventaja del diseo en el ejemplo anterior puede subsanarse
Ejemplo 7.11 Considere el sistema
x 1 = x2
x 2 = h (x1 ) + u
238

con
h (0) = 0 .
Ntese que no se requiere la pasividad de h!
Este sistema no es, en general, pasivo (si h no lo es), pero es pasivizable por retroalimentacin de estados, ya que es de grado relativo 1 y
de fase mnima, cuando la salida es y = x2 . La ley de retroalimentacin
de los estados
u=
(x1 ) + v
dnde
(0) = 0 , x1 [h (x1 ) + (x1 )] > 0 , 8x1 6= 0
convierte al sistema en lazo cerrado en
x 1 = x2
x 2 = h (x1 )
239

(x1 ) + v

Este sistema, con salida


y = x2
es pasivo, con funcin de almacenamiento de energa
x1
1
V (x) =
[h (z) + (z)] dz + x22
2
0
V = [h (x1 ) + (x1 )] x2

x2 [h (x1 ) + (x1 )] + x2 v = x2 v

Adems, el sistema es de estado cero observable, ya que con v = 0


y (t) = x2 (t) 0 =) [h (x1 (t)) + (x1 (t))] 0 =) x1 (t) 0 .
Entonces la ley de control
v=

(x2 ) ,

(0) = 0 , x2 (x2 ) > 0 , 8x2 6= 0


240

es decir,
u=

(x1 )

(x2 )

estabiliza asintticamente (globalmente?) el origen de


x 1 = x2
x 2 = h (x1 )

Linealizacin:

0
x =

1
0

[h (0) + k2 ]

k1

(x1 )

x , k1 =

(x2 )

(0) , k2 =

El polinomio caracterstico es
s2 + k1 s + [h0 (0) + k2 ] = 0
241

(0)

al que se le pueden asignar las races!


Ntese que siempre es posible elegir (x1 ) de tal forma que la condicin
x1 [h (x1 ) + (x1 )] > 0 , 8x1 6= 0
sea satisfecha. Tmese por ejemplo a
(x1 ) =
(x1 ) =

7.4.

h (x1 ) + k2 x1 ,
h (x1 ) + (x1 ) , x1 (x1 ) > 0 , 8x1 6= 0

Una clase de sistemas en cascada

La pasivizacin por retroalimentacin puede ser aplicada, en particular, a la clase de sistemas en cascada
z = f0 (z, y)
x = f (x) + G (x) u
y = h (x)
242

Si f0 (z, y) es suficientemente suave, por el teorema del valor medio se


puede escribir como
f0 (z, y) = f0 (z, 0) + [f0 (z, y) f0 (z, 0)]
1
@f0 (z, sy)
= f0 (z, 0) +
ds y
@y
0
, fa (z) + F (z, y) y

de tal forma que el sistema en cascada adquiere la forma


z = fa (z) + F (z, y) y
x = f (x) + G (x) u
y = h (x)
dnde
fa (0) = 0 , f (0) = 0 , h (0) = 0
las funciones fa , F , f , G son localmente Lipschitz y h es contnua. Se
asume que:
243

la representacin es global,
el sistema maestro es pasivo, con una funcin de almacenamiento
V (x) positiva definida y radialmente no acotada, y
el origen del sistema esclavo sin entrada z = fa (z) es un punto
de equilibrio estable, y se conoce una funcin de Lyapunov W (z),
positiva definida y radialmente no acotada, que satisface
@W (z)
fa (z) 0 , 8z
@z
Usando
U (z, x) = W (z) + V (x)

244

@W (z)
@W (z)
@V (x)
@V (x)
U =
fa (z) +
F (z, y) y +
f (x) +
G (x) u
@z
@z
@x
@x
"
#

T
@W (z)
T
y u+
F (z, y)
@z
Mediante el control en retroalimentacin

T
@W (z)
u=
F (z, y)
+v
@z
resulta que
Por lo tanto el sistema

U y T v

z = fa (z) + F (z, y) y

T
@W (z)
x = f (x) G (x)
F (z, y) + G (x) v
@z
y = h (x)
245

es pasivo, con funcin de almacenamiento U . Si el sistema es de estado


cero observable, entonces se puede estabilizar asintticamente mediante
una retroalimentacin pasiva de la salida.
Ejemplo 7.12 El movimiento rotacional de un cuerpo rgido que posee
tres torques de control escalares independientes puede ser modelado por

= 12 I3 + S () + T !
M ! = S (!) M ! + u
dnde ! 2 R3 es el vector de velocidades, y 2 R3 es una seleccin
particular de los parmetros cinemticos que conducen a una representacin tridimensional del grupo rotacional. La matriz
2
3
0
x3 x2
0
x1 5
S (x) = 4 x3
x2 x1
0
246

es antisemtrica, M es una matriz de inercia simtrica y positiva definida, e I3 es la matriz identidad de dimensin 3 3.
Tomando y = ! el sistema tiene la forma de la cascada, con el
sistema maestro
M ! = S (!) M ! + u
y=!
y el sistema esclavo

1
=
I3 + S () + T ! .
2
El sistema maestro es pasivo, con funcin de almacenamiento
1
V (!) = ! T M !
2
1
1
V = ! T M ! + ! T M !
2
2
1 T

1 T
=
! M S (!) ! + uT ! +
! S (!) M ! + ! T u = y T u
2
2
247

ya que
32
3 2
3
0
x3 x2
x1
x3 x2 + x2 x3
0
x1 5 4 x2 5 = 4 x3 x1 x1 x3 5 = 0
S (x) x = 4 x3
x2 x1
0
x3
x2 x1 + x1 x2
2

El sistema esclavo sin entrada (! = 0)


= 0

tiene un punto de equilibrio en = 0 y cualquier funcin W () contnuamente diferenciable, positiva definida y radialmente no acotada es
una funcin de Lyapunov.
Por lo tanto, todas las hiptesis son satisfechas y el sistema puede ser
pasivizado mediante el control

T
@W () 1
T
u=
I3 + S () +
+v
@ 2
248

Eligiendo

W () = k ln 1 + T , k > 0

se obtiene
u=

kT
T
I
+
S
()
+

3
1 + T

y el sistema resultante es

+v =

k + v

= 12 I3 + S () + T y
M ! = S (!) M ! k + v
y=!

Este sistema es de estado cero observable, ya que con v = 0


y (t) 0 () ! (t) 0 =) ! (t) 0 =) (t) 0 .

Por lo tanto puede ser estabilizado global y asintticamente mediante la


ley de control
u = k
(!)
249

con

7.5.

(0) = 0 , y T (y) > 0 , 8y 6= 0 .

Un caso especial

Si se imponen condiciones ms fuertes sobre el sistema esclavo, no se


requiere probar que el todo el sistema interconectado es de estado cero
observable.
Teorema 7.13 Para el sistema en cascada
z = fa (z) + F (z, y) y
x = f (x) + G (x) u
y = h (x)
suponga que
el sistema maestro es de estado cero observable
250

el sistema maestro es pasivo, con una funcin de almacenamiento


V (x) positiva definida y radialmente no acotada, y
el origen del sistema esclavo sin entrada z = fa (z) es un punto de
equilibrio global y asintticamente estable, y se conoce una funcin
de Lyapunov W (z), positiva definida y radialmente no acotada,
que satisface
@W (z)
@W (0)
fa (z) < 0 , 8z 6= 0 , y
=0
@z
@z
entonces el origen (z, x) = (0, 0) del sistema puede ser global y asintticamente estabilizado mediante la ley de control

T
@W (z)
u=
F (z, y)
(y)
@z
con
(0) = 0 , y T (y) > 0 , 8y 6= 0 .
251

Prueba. Usando U como candidata a funcin de Lyapunov del sistema del sistema en lazo cerrado se obtiene
@W (z)
U =
fa (z)
@z

y T (y) 0

Adicionalmente
U (t) 0 =) (z (t) 0 , y (t) 0) =) u (t) 0 =) x (t) 0 ,
dnde la ltima implicacin resulta de la hiptesis de que el sistema
maestro es de estado cero observable. Se concluye estabilidad global y
asinttica de la aplicacin del principio de invariancia de Lasalle.
Ejemplo 7.14 Considere el sistema
= + 2
= u
252

Con la salida y = el sistema tiene la forma en cascada. El sistema


maestro es pasivo con funcin de almacenamiento V () = 2 /2 y es
claramente de estado cero observable, ya que y = . El origen del sistema esclavo sin entrada = es global y exponencialmente estable
con funcin de Lyapunov W () = 2 /2. Las condiciones del teorema
anterior se satisfacen y una ley de control estabilizante es
u=

que es el mismo control obtenido por backstepping.

253

Leccin 8
Retroalimentacin de la salida

254

En general la estabilizacin por retroalimentacin de la salida requiere el uso de observadores. Sin embargo, en algunas ocasiones esto
no se requiere explcitamente. Se presentarn aqui tres casos simples, en
los cuales no es necesario disear un observador:
Sistemas con grado relativo uno y de fase mnima
Sistemas pasivos
Sistemas con mapas pasivos de la entrada a la derivada de la salida

255

8.1.

Sistemas con grado relativo uno y de


fase mnima

Sea el sistema
x = f (x) + g (x) u
y = h (x)
f (0) = 0 , h (0) = 0 , Lg h (x) 6= 0 , 8x 2 D Rn , u 2 R
En su forma normal

(0) = 0 , Lg (x) 6= 0 4
Forma Normal:
Supuestos:

5=4

= f0 (, y)
y = (x) [u (x)] ,
256

(x)
h (x)

3
5

(x) 6= 0

El origen del sistema


= f0 (, 0)
es exponencialmente estable.
c1 kk2 V1 () c2 kk2
@V1 ()
f0 (, 0)
@

c3 kk2

@V1 ()
c4 kk
@
kf0 (, y)

f0 (, 0)k L1 |y|

| (x) (x)| L2 kk + L3 |y|


(x)

257

>0

Retroalimentacin de salida de Alta Ganancia:


u=

ky , k > 0

= f0 (, y)
y = (x) [u (x)] ,

(x) 6= 0
1
V (, y) = V1 () + y 2
2

@V1 ()
V =
f0 (, y) k (x) y 2 (x) (x) y
@
@V1 ()
@V1 ()
=
f0 (, 0) +
[f0 (, y) f0 (, 0)] k (x) y 2 (x) (x) y
@
@
c3 kk2 + c4 L1 kk |y| k 0 y 2 + L2 kk |y| + L3 y 2

T
1
kk
c3
(c4 L1 + L2 )
kk
2

V
1
|y|
(c4 L1 + L2 ) (k 0 L3 )
|y|
| 2
{z
}
258

1
(c4 L1 + L2 )2
4
L3
1
det Q > 0 si k >
+
(c4 L1 + L2 )2
4c3 0
0
det Q = c3 (k

L3 )

El origen del sistema en lazo cerrado es exponencialmente estable.


Si la suposicin se satisface globalmente, entonces el origen es global
y exponencialmente estable

8.2.

Sistemas pasivos

Supnga que el sistema

x = f (x, u) , x 2 Rn , u 2 Rp
:
y = h (x, u) , y 2 Rp
f (0, 0) = 0 , h (0, 0) = 0
259

es pasivo, con funcin de almacenamiento de energa V (x), contnuamente diferenciable y positiva definida
@V (x)
V =
f (x, u) uT y, 8x 2 Rn , u 2 Rp ,
@x
y de estado cero observable.
Entonces puede ser estabilizado mediante la ey de control por retroalimentacin de la salida
u=
(y)
(0) = 0 , y T (y) > 0 , 8y 6= 0

@V (x)
V =
f (x, u) uT y =
@x
V = 0 =) y (t) 0 =) u (t) =
260

y T (y) 0,

(y (t)) 0 =) x (t) 0

8.3.

Sistemas con mapas pasivos de u a y

Sea el sistema
:

x = f (x, u) , x 2 Rn , u 2 Rp
y = h (x) , y 2 Rp

f (0, 0) = 0 , h (0) = 0 , h es connuamente diferenciable


Suponga que el sistema

x = f (x, u) , x 2 Rn , u 2 Rp
d :
(x, u) , y 2 Rp
y = @h(x)
f (x, u) , h
@x
es pasivo, con funcin de almacenamiento de energa V (x), contnuamente diferenciable y positiva definida
@V (x)
V =
f (x, u) uT y,
8x 2 Rn , u 2 Rp ,
@x
261

y de estado cero observable


con u = 0 , y (t) 0 =) x (t) 0 .

Entonces el sistema es estabilizable mediante una control de salida


derivativo
u=

(y)
,

(0) = 0 , z T (z) > 0 , 8z 6= 0

Problema: implementacin de la derivada y


Solucin prctica: derivada "sucia"
Caso escalar
y = sy

bs
y , a>0, b>0
s+a

Caso multivariable: Para 1 i p


y i = syi

bi s
yi , ai > 0 , bi > 0
s + ai
262

263

Implementacin:
zi es la salida de
ui =

(zi ) ,

bi s
con entrada yi
s + ai

(0) = 0 , ziT

zi =

(zi ) > 0 , 8zi 6= 0

ai zi + bi y i

Recurdese que la cascada del sistema lineal estrictamente pasivo


Gi (s) =

bi s
s + ai

con la no linealidad pasiva


i

(zi )

es estrictamente pasiva, con funcin de almacenamiento


zi
Wi (zi ) = ki
i ( ) d , ki > 0
0

264

ya que
i (zi ) = ki
W

(zi ) [ ai zi + bi y i ] =

ai k i z i

(zi ) + bi ki

(zi ) y i

Entonces, con la candidata a funcin de Lyapunov (positiva definida)

p
X
1 zi
Vc (x, z) = V (x) +
b
i=1 i 0

265

( )d

X1
@V (x)
V c (x, z) =
f (x, u) +
i (zi ) [ ai zi + bi y i ]
@x
b
i=1 i
p
X
ai
T
u y +
i (zi ) zi + i (zi ) y i
b
i
i=1
p
p
X
X
ai
=
i (zi ) y i +
i (zi ) zi + i (zi ) y i
b
i
i=1
i=1
=

p
X
ai
i=1

bi

(zi ) zi < 0 , 8z 6= 0

se prueba la estabilidad asinttica del origen del sistema en lazo cerrado.


Ejemplo 8.1 Estabilice el pndulo
ml + mg sin = u
266

en =

usando retroalimentacin de
x1 =

, x2 = , u = T

Tss = T

x 1 = x2
1
x 2 = ml
[ mg sin (x1 +
u = mg sin (x1 +

1)

1)

+ u]

k p x 1 + v , kp > 0

x 1 = x2
kp
x 2 = ml
x1 +
y = x1
y = x2

1
v
ml

1
1
V = kp x21 + mlx22
2
2

267

a
sin
c

V = kp x1 x2 + mlx2

kp
1
x1 +
v
ml
ml

V = x2 v = yv
=) Pasivo v ! y

Es de estado cero observable? Si

Con v = 0 , y (t) = x2 (t) 0 =) x1 (t) 0 .

Control-Implementacin

F. de transferencia G (s) =
realizacin

bs
: y (t) y z (t)
s+a

= a + y
z = b ( a + y)
v=
u = mg sin

kd z , kd > 0
kp (
268

1)

kd z

Parte III
Estabilizacin Robusta

269

Leccin 9
Control por Modos Deslizantes

270

9.1.

Ejemplo introductorio

Considere el sistema
x 1 = x2
x 2 = h (x) + g (x) u , g (x)

g0 > 0

Variedad deslizante (superficie):


s = a1 x 1 + x 2 = 0
s (t) 0 =) x 1 =

a1 x 1

a1 > 0 =) lm x1 (t) = 0
t!1

Cmo podemos llevar la trayectoria a la variedad s = 0?


Cmo podemos mantenerla all?
s = a1 x 1 + x 2 = a1 x2 + h (x) + g (x) u
271

Supngase que

a1 x2 + h (x)
% (x)
g (x)
1
V = s2
2
V = ss = s [a1 x2 + h (x)] + sg (x) u

a1 x2 + h (x)
= sg (x)
+ sg (x) u
g (x)
|s| g (x) % (x) + sg (x) u

Si
(x) % (x) +
s>0, u=
272

(x)

>0

V |s| g (x) % (x)


|s| g (x) % (x)

|s| g (x) (x)


|s| g (x) (% (x) +

0)

g (x)

|s|

Si
s<0, u=

(x)

V |s| g (x) % (x) + sg (x) u = |s| g (x) % (x) |s| g (x) (x)
|s| g (x) % (x) |s| g (x) (% (x) + 0 ) = g (x) 0 |s|

1,
s>0
sign (s) =
1, s<0
u=
V

(x) sign (s)


|s|
p

g (x)

g0

273

g0
2V

|s|

p
dV
p g0 0 2dt
V
p V (s(t))
p
2 V
g0 0 2t
V (s(0))

V (s (t))

p
V (s (0))

|s (t)| |s (0)|

g0

1
t
2

0p

g0 0 t

s (t) llega a cero en tiempo finito!


Una vez llega a la superficie s = 0, la trayectoria no puede abandonarla
Cul es la regin de validez?
x 1 = x2
x 2 = h (x)

g (x) (x) sign (s) ,

x 1 = a1 x1 + s
s = a1 x2 + h (x)

g (x) (x) sign (s) ,


274

275

ss

g0

|s| , si

(x)

% (x) +

>0

1
V1 = x21
2

V 1 = x1 x 1 =

a1 x21 + |x1 | c 0
c
8 |s| c , y |x1 |
a1

c
= |x1 |
, |s| c
a1

a1 x21 + x1 s

es invariante positivo si

a1 x2 + h (x)
% (x) en
g (x)

a1 x2 + h (x)
k1 < k , 8x 2
g (x)
u=

k sign (s)
276

277

278

Cmo se puede reducir o eliminar el " chattering" (castaeo)?


Reducir la amplitud de la funcin signo:
s = a1 x2 + h (x) + g (x) u
h
i
(x)
a1 x 2 + h
u=
+v
g (x)

(x) = a1 1

s = (x) + g (x) v
g (x)
x2 + h (x)
g (x)

(x)
% (x) ,
g (x)
v=

(x)

g (x)
h (x)
g (x)

% (x) +

(x) sign (s)


279

Reemplaar el sign por una funcin de saturacin de gran pendiente


s
u=
(x) sat
"

y,
si |y| 1
sat (y) =
sign (y) , si |y| > 1
Cmo podemos analizar el sistema?
Para
Con c

|s|

", u=

(x) sign (s)

"

n
= |x1 |

c
a1

o
, |s| c es invariante positivo.

La trayectoria llega a la "boundary layer" {|s| "} en tiempo


finito.
280

281

La "boundary layer" es invariante positiva.


Dentro de la "boundary layer":
x 1 = a1 x1 + s
s = a1 x2 + h (x)
x1 x 1

g (x) (x) s" ,

a1 x21 + |x1 | "

0<<1
"
a1
Las trayectorias llegan al conjunto invariante positivo

"
" = |x1 |
, |s| "
a1
x1 x 1

en tiempo finito.

(1

) a1 x21 , 8 |x1 |

282

Qu ocurre dentro de " ?


Encuentre los puntos de equilibrio
0 = a1 x 1 + s = x 2
0 = a1 x2 + h (x) g (x) (x) s" ,
(x1 ) =

h (x)
a1 g (x) (x)

x2 =0

x1 = " (x1 )
Supngase que x1 = " (x1 ) tiene una raz aislada x1 = "k1
h (0) =) x1 = 0
z 1 = x1
x2 =

a1 x 1 + s =
z1 =

x1 , z2 = s

a1 (x1

x1 ) + s

a1 x 1 + s =
283

a1 x1
a1 x1 =

a1 z1 + z2

a1 z 1 + z 2

z2 = a1 x2 + h (x)

g (x) (x)

= a1 ( a1 z1 + z2 ) + h (x)

s
"
g (x) (x)

z2 + a1 x1
"

z2
g (x) (x)
"

h (x)
a1 z1 ) + a1 g (x) (x)
a1 g (x) (x)
z2 = l (z)

l (z) = a1 (z2

z1 = a1 z1 + z2
z2 = l (z) g (x) (x) z"2
l (0) = 0 , |l (z)| l1 |z1 | + l2 |z2 |
g (x) (x)

g0

1
1
V = z12 + z22
2
2
284

x1
"

h
V = z1 ( a1 z1 + z2 ) + z2 l (z)

|z1 |
|z2 |

z2 i
"

g0 0 2
z
" 2

1
a1
(1
+
l
)
|z1 |
1
2
g0 0
1
|z2 |
(1
+
l
)
l
1
2
| 2
{z "
}

a1 z12 + (1 + l1 ) |z1 | |z2 | + l2 z22

g (x) (x)

det Q = a1

g0 0
"

l2

1
(1 + l1 )2
4

h (0) = 0 =) lm x (t) = 0
t!1

x1
h (0) 6= 0 =) lm x (t) =
0
t!1

Lase la seccin 14.1.1 del libro de Khalil.


285

9.2.

Sistemas con control escalar

Considrese un sistema en la Forma Regular

= fa (, )
= fb (, ) + g (, ) u + (t, , , u)
2 Rn 1 , 2 R , u 2 R
fa (0, 0) = 0 , fb (0, 0) = 0 , g (, )

g0 > 0 .

El diseo se realiza en dos fases:

9.2.1.

Fase 1:

Variedad de Deslizamiento (Superficie Deslizante):


s=

() = 0 ,
286

(0) = 0

s (t) 0 =) = fa (, ())

Disese () de tal forma que el origen de = fa (, ()) sea asintticamente estable.

9.2.2.

Fase 2:

Disee el control de tal forma que las trayectorias converjan a s = 0


en tiempo finito y permanezcan all a pesar de las perturbaciones e
incertidumbres.
@ ()
fa (, ) + g (, ) u + (t, , , u)
@

s = fb (, )
Sea
u=

1
g (, )

fb (, )

@ ()
fa (, ) + v , o u = v
@
287

o en forma compacta

@ ()
1

u = L fb (, )
fa (, ) + v , L =
, o L=0
@
g (, )
s = g (, ) v +
(t, , , v) = fb
Si se supone que

(t, , , v)

@
fa +
gL fb
@

@
fa
@

(t, , , v)
% (, ) + 0 |v|
g (, )
% (, )

0 , 0 0 < 1 (conocidas)
1
V = s2
2
288

V = ss = sg (, ) v + s (t, , , v) sgv + |s| | |

= g sv + |s|
g
g [sv + |s| (% (, ) + 0 |v|)]
Eligiendo
v=
(, )

(, ) sign (s)
% (, )
+
1 0

>0

V = ss g [
|s| + % |s| + 0 |s| ]
= g[
|s| (1 0 ) + % |s|]
g [ % |s| (1 0 ) 0 |s| + % |s|]
V = ss

g (, ) (1

0 )
289

|s|

g0 (1

0 )

|s|

g0

2V
p
g0 0 2dt
0

dV
p
V
p V (s(t))
2 V

V (s(0))

V (s (t))

g0

p
V (s (0))

|s (t)| |s (0)|

2t

g0

1
t
2

0p

g0 0 t

s (t) llega a cero en tiempo finito!


Una vez llega a la superficie s = 0, la trayectoria no puede abandonarla
Cmo se puede reducir o eliminar el "chattering" (castaeo)?
Reemplazar el sign por una funcin de saturacin de gran pendiente:
s
u=
(x) sat
, ">0
"
290

291

292

Cmo podemos analizar el sistema?


ss

g0 (1

0 )

|s| para

|s|

", u=

(x) sign (s)

Entonces la trayectoria llega a la "boundary layer" {|s| "} en tiempo


finito y permanece all para todo tiempo futuro.
Estudise el comportamiento de
= fa (, () + s)
Qu conocemos acerca de este sistema y qu necesitamos?
1 (kk) V () 2 (kk)
@V ()
fa (, () + s) 3 (kk) , 8 kk
(|s|)
@
|s| c =) V 3 (kk) , 8 kk
(c)
293

(r) = 2 ( (r))
V ()

(c) , V ()

=) kk

2 ( (c)) =) 2 (kk) 2 ( (c))


(c) =) V 3 (kk) 3 ( (c))

El conjunto {V () c0 }, con c0

(c), es invariante positivo

= {V () c0 } {|s| c} , con c0

(c)

y todas las trayectorias que se inician en llegan a


" = {V () (")} {|s| "}
en tiempo finito.
Teorema 9.1 ([28, Theorem 14.1]) Supnga que todas las hiptesis son
vlidas en . Entonces, para toda condicin inicial ( (0) , (0)) 2 la
294

295

trayectoria ( (t) , (t)) est acotada para todo t 0 y llega al conjunto


invariante positivo " en tiempo finito. Si las hiptesis son vlidas globalmente, y V () es radialmente no acotada entonces las conclusiones
anteriores son vlidas para cualquier condicin inicial.
Teorema 9.2 ([28, Theorem 14.2]) Supnga que todas las hiptesis son
vlidas en .
% (0) = 0, 0 = 0
El origen de = fa (, ()) es exponencialmente estable.
Entonces existe " > 0 tal que para toda 0 < " < " el origen del sistema
en lazo cerrado es exponencialmente estable y es un subconjunto de
su regin de atraccin. Si las hiptesis son vlidas globalmente, entonces
el origen ser global, uniforme y asintticamente estable.
Ejemplo 9.3
x 1 = x2 + 1 x1 sin x2
x 2 = 2 x22 + x1 + u
296

|1 | a , |2 | b
x2 =

kx1 =) x 1 = kx1 + 1 x1 sin x2


1
V1 = x21 =) x1 x 1 kx21 + ax21
2
Variedad deslizante (superficie):
s = kx1 + x2 = 0 , k > a
s = 2 x22 + x1 + u + k (x2 + 1 x1 sin x2 )
u=

x1

kx2 + v =) s = v +

(x)

(x) = 2 x22 + k1 x1 sin x2


| (x)| ak |x1 | + bx22

(x) = ak |x1 | + bx22 +


u=

x1

kx2
297

>0

(x) sign (s)

Estabilizar el control
u=
el origen?

x1

kx2

(x) sat

s
"

Ejemplo 9.4 Forma Normal


8
= f0 (, )
>
>
<
i = i+1 , 1 i 1
> = Lf h (x) + Lg Lf 1 h (x) u
>
:
y = 1
Considere a como la entrada del sistema
8
< = f0 (, 1 , , 1 , )
i = i+1 , 1 i 2
:
1 =
298

Disee
=
para estabilizar el origen
s =

(, 1 , , 1 )
(, 1 , , 1 )

Para sistemas de fase mnima:


El origen de = f0 (, 0) es asintticamente estable
s = + k1 1 + + k 1

8
2 = f0 (,
>
>
3 1 ,2 , 1 , k1 1
>
>

>
1
0
1
<
6 ..
7 6
..
6 .
7 6
.
=
>
6
7 6
>
>
4
5
4
1
>
>
:
1
k1
k 1
299

3k2 1 1 )3
1
7 6 ..
7
76 .
7
76
7
54
5
1

9.3.

Sistemas con control multivariable

Considrese un sistema en la Forma Regular

= fa (, )
= fb (, ) + G (, ) E (, ) u + (t, , , u)
2 Rn p , 2 R p , u 2 Rp
fa (0, 0) = 0 , fb (0, 0) = 0 , det G (, ) 6= 0 , det E (, ) 6= 0 ,
fa , fb , E conocidos, G , inciertos,
G (, ) = diag [g1 (, ) , g2 (, ) , , gp (, )] , gi (, )

El diseo se realiza en dos fases:

300

g0 > 0

9.3.1.

Fase 1:

Variedad de Deslizamiento (Superficie Deslizante):


s=

() = 0 ,

(0) = 0

s (t) 0 =) = fa (, ())

Disese () de tal forma que el origen de = fa (, ()) sea asintticamente estable.

9.3.2.

Fase 2:

Disee el control de tal forma que las trayectorias converjan a s = 0


en tiempo finito y permanezcan all a pesar de las perturbaciones e
incertidumbres.
s = fb (, )

@ ()
fa (, ) + G (, ) E (, ) u + (t, , , u)
@
301

Sea
1

u=E

L fb

@
fa + v
@

s i = gi (, ) vi +
Si se supone que

, L=G

, o L=0

(t, , , v) , 1 i p

(t, , , v)
% (, ) + 0 max |vi | , 1 i p
1ip
gi (, )

% (, )

0 , 0 0 < 1 (conocidas)
p
1X 2
V =
s
2 i=1 i

si s i = si gi vi + si i

gi si vi + |si | % (, ) + 0 max |vi |


1ip

302

Eligiendo
vi =
(, )

(, ) sign (si ) , 1 i p
% (, )
+
1 0

>0

si s i gi [
+ % + 0 ] |si |
= gi [
(1 0 ) + %] |si |
gi [ % (1 0 ) 0 + %] |si |
g0 0 (1 0 ) |si |
si (t) llega a cero en tiempo finito!
Una vez llega a la superficie s = 0, la trayectoria no puede abandonarla.
Cmo se puede reducir o eliminar el "chattering" (castaeo)?
Reemplazar el sign por una funcin de saturacin de gran pendiente:
s
i
, ">0, 1ip
vi =
(x) sat
"
303

Lase los teoremas 14.1 y 14.2 en Khalil [28].

304

Leccin 10
Rediseo de Lyapunov (o
Control Mini-Max)

305

Considere el sistema no lineal


x = f (x) + G (x) [u + (t, x, u)]
f (0) = 0 , x 2 Rn , u 2 Rp

Modelo Nominal:

x = f (x) + G (x) u
Control estabilizante:
u=

(x)

@V (x)
[f (x) + G (x) (x)] W (x) , 8x 2 D , W es p.d.
@x
Control (rediseado) robustificante:
u=

(x) + v

Hiptesis acerca de la perturbacin


k (t, x,

(x) + v)k % (x) + 0 kvk , 0 0 < 1


306

El sistema con el control robustificante queda


x = f (x) + G (x)

(x) + G (x) [v + (t, x,

(x) + v)]

La funcin de Lyapunov para sistema nominal usada como candidata a


f. de Lyapunov para el sistema perturbado
@V
@V
V =
[f + G ] +
G [v + ]
@x
@x
Definiendo
wT =

wT v + wT

@V
V =
[f + G ] + wT v + wT
@x
wT v + kwk k k wT v + kwk [% (x) + 0 kvk]

Eligiendo el control como


v=

@V
G
@x

w
(x)
kwk

w
= sign (w) para p = 1
kwk
307

dnde
(x)
wT v + wT
=
Luego

% (x)
1 0

(x) kwk + kwk % (x) + 0 (x) kwk


(x) (1 0 ) kwk + kwk % (x) 0
V

W (x)

Entonces las trayectorias convergen asintticamente al punto de equilibrio a pesar de las perturbaciones e incertidumbres.
Problemas:
1. Tericos con la existencia y unicidad de las soluciones, ya que el
control es discontnuo.
2. Prcticos debido al Chattering (castaeo) producido por el control discontinuo.
308

Para resolver este segundo problema se puede aproximar el control discontinuo por un control contnuo de alta ganancia

w
(x) kwk
, si (x) kwk "
v=
w
2
(x) " , si (x) kwk < "
En la regin

(x) kwk

En la regin (x) kwk < "


V

W (x) + wT

" =) V
2 (x)

i
w
+
"

W (x)

2 (x)
W (x)
kwk2 + % (x) kwk + 0 kwk kvk
"
2
2
W (x)
kwk2 + % kwk + 0 kwk2
"
"
2

2
V W (x) + (1 0 )
kwk + kwk
"
309

como

y2
"
+ y , para y
"
4

entonces
V

(1

0 )

, 8x 2 D
4
Teorema 10.1 [28, Teorema 14.3]x (t) es uniforme y finalmente acotada por una funcin clase K de ". Si las hiptesis se satisfacen globalmente, y V es radialmente no acotada, entonces x (t) es global, uniforme
y finalmente acotada.
W (x) + "

Corolario 10.2 [28, Corolario 14.1] Si % (0) = 0 y (x)


puede recobrar la estabilidad uniforme y asinttica.

0 > 0 se

Ejemplo 10.3 El modelo de un pndulo con aceleracin horizontal del


punto de suspensin est dado por
h
i T
m ` + A (t) cos =
mg sin
`
310

Objetivo: estabilizar el pndulo en el punto =


g
1
A (t)
x1 = , x2 = , a = , c =
, h (t) =
,
2
`
m`
`
x 1 = x2
x 2 = a sin x1 + cu + h (t) cos x1
El modelo nominal es
x 1 = x2
x 2 = a
sin x1 + cu
Control nominal (linealizacin exacta)


a

1
(x) =
sin x1
(k1 x1 + k2 x2 )
c
c
Dinmica nominal en lazo cerrado

0
1
x =
x , V (x) = xT P x
k1
k2
|
{z
}
Hurwitz

311

Perturbacin

1
a
c a
c
=
sin x1 + h (t) cos x1
c
c
c

c
c

0 ,

a
c

a
c
c

c
c

c
c

(k1 x1 + k2 x2 ) +

q
k12 + k22 k , |h (t)| H

(k kxk + H)
+ 0 |v| , (x) + 0 |v| , (0 < 1)
c
(x)
H
(x) =
, (x)
1 0
c (1 0 )

@V
0
w=
G = 2xT P
= 2 (p12 x1 + p22 x2 )
1
@x

(x) sign (w) , si (x) |w| "


v=
2 (x) w" ,
si (x) |w| < "

| (x)|

312

c
c

u=

sin x1
c


1
(k1 x1 + k2 x2 ) + v
c

Ejercicio 10.4 Este control estabiliza el origen x = 0?

313

Leccin 11
Backstepping robusto

314

El "backstepping" se aplica a sistemas en la forma de retroalimentacin estricta


z1 = f1 (z1 ) + g1 (z1 ) z2 ,
z2 = f2 (z1 , z2 ) + g2 (z1 , z2 ) z3 ,
..
.
zk 1 = fk 1 (z1 , , zk 1 ) + gk 1 (z1 , , zk 1 ) zk ,
zk = fk (z1 , , zk ) + gk (z1 , , zk ) u ,
dnde

gi (z1 , , zi ) 6= 0 para 1 i k

315

Pero tambin puede aplicarse a sistemas en esta forma con perturbaciones o incertidumbres
z1 = f1 (z1 ) + g1 (z1 ) z2 + 1 (z) ,
z2 = f2 (z1 , z2 ) + g2 (z1 , z2 ) z3 + 2 (z) ,
..
.
zk 1 = fk 1 (z1 , , zk 1 ) + gk 1 (z1 , , zk 1 ) zk +
zk = fk (z1 , , zk ) + gk (z1 , , zk ) u + k (z) ,

si las incertudumbres satisfacen


| 1 (z)| 1 (z1 ) ,
| 2 (z)| 2 (z1 , z2 ) ,
..
.
|
|

(z)| k 1 (z1 , , zk 1 ) ,
(z)|
k (z1 , , zk ) ,
k
k 1

Para esto, cada control virtual


zi =

(z1 , , zi 1 ) ,
316

k 1

(z) ,

que debe ser suave, se disea para que sea robusto ante las incertidumbres en su subsistema.
Ejemplo 11.1
x 1 = x2 + 1 x1 sin x2
x 2 = 2 x22 + x1 + u
|1 | a , |2 | b
1

= 1 x1 sin x2 ,

= 2 x22

Diseo:
Primer paso:
x 1 = x2 + 1 x1 sin x2 , | 1 | = |1 x1 sin x2 | a |x1 |
Control virtual
x2 =
317

k1 x 1

1
V1 = x21 , V 1 (k1 a) x21 , Hgase k1 = 1 + a
2
con lo que el control virtual estabiliza robustamente el origen x1 =
0.
Segundo paso: Mediante el cambio de variables
z2 = x2 + (1 + a) x1
x 1 =
z2 =
1

(1 + a) x1 + 1 x1 sin x2 + z2
1 (x) + 2 (x, ) + u

(x) = x1 + (1 + a) x2 ,

(x, ) = (1 + a) 1 x1 sin x2 + 2 x22

1
1
Vc (x) = x21 + z22
2
2
V c

x21 + z2 [x1 +
318

(x) +

(x, ) + u]

Primer Mtodo (Ejemplo 14.13 de Khalil):


u=

x1

V c

x21

(x)

kz2 , k > 0

kz22 + z2

(x, )

Se restringe el anlisis al conjunto compacto


c = {Vc (x) c}
|

2|

a (1 + a) |x1 | + b |x2 | , = max |x2 |


x2c

x2 = z 2
V c

2|

x21

(1 + a) x1

(1 + a) (a + b) |x1 | + b |z2 | ,

kz22 + (1 + a) (a + b) |x1 | |z2 | + bz22

Se puede mostrar que (para cualquier c) eligiendo k suficientemente grande se puede estabilizar exponencialmente al origen y c est contenido en la regin de atraccin. Por lo
319

tanto se obtiene estabilizacin semiglobal del origen, pero no


estabilizacin global!
Segundo Mtodo (Ejemplo 14.14 del Khalil): Aqui se combinan backstepping y Rediseo de Lyapunov
u = x1
V c x21
v=

2|

(x)

kz2 + v , k > 0

kz22 + z2 [

(x, ) + v]

a (1 + a) |x1 | + bx22 ,

(x) sign (z2 ) , si (x) |z2 | "


2 (x) z"2 ,
si (x) |z2 | < "

(x) = 0 + a (1 + a) |x1 | + bx22 , 0 > 0 , " > 0


"
V c x21 kz22 +
4
Se puede mostrar (hgalo!) que este control estabiliza globalmente al origen.
320

Parte IV
Seguimiento

321

Leccin 12
Seguimiento (Tracking)

322

12.1.

Por Linealizacin Parcial

Considere el sistema SISO con grado relativo


x = f (x) + g (x) u
y = h (x)
f (0) = 0 , h (0) = 0 , x 2 Rn , u 2 R , y 2 R

con grado relativo , 1 n, en D0 D Rn


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . ,
Lg Lf 1 h (x) 6= 0 ; 8x 2 D0
Cambio de variables:

z = T (x) , 4

(x)
(x)
323

5,4

1 ; 8x 2 D0

3
5

Forma Normal:

= f0 (, )
i = i+1 , 1 i 1
= Lf h (x) + Lg Lf 1 h (x) u
y = 1
f0 (0, 0) = 0

Seal de referencia r (t):


r (t) y todas sus derivadas hasta r() (t) son acotadas para todo
t
0, y la sima derivada r() (t) es una funcin contnua a
tramos en t;
Se dispone de las seales r (t) , , r() (t) en lnea.
Objetivo:
lm [y (t)

t!1

r (t)] = 0 .
324

Con el cambio de variables


2
3
2
r (t)
6
7
6
R = 4 ...
5 , e=4
r( 1) (t)

1
..
.

el sistema (en la forma normal) queda

dnde

( 1)

7
5=

= f0 (, e + R)
e = Ac e + Bc Lf h (x) + Lg Lf 1 h (x) u
2

6
6
6
Ac = 6
6
4

0
1
.. . .
.
.
0 0 0
0 0 0
0
0
..
.

1
0
..
.

0
0
..
.

0
0
..
.

R,

r() (t)
2

0
0
..
.

7
6
7
6
7
6
7 , Bc = 6
7
6
4 0
0 1 5
0 0
1
325

7
7
7
7 .
7
5

Mediante el control retroalimentado (por linealizacin parcial)


u=

1
Lg Lf 1 h (x)

Lf h (x) + r() (t) + v

se obtiene (para la parte linealizable del sistema)


e = Ac e + Bc v
que mediante el control por retroalimentacin lineal
v=

Ke
+

e = (Ac Bc K)e
|
{z
}
Hurwitz

+
lmt!1 e (t) = 0
+
lmt!1 [y (t) r (t)] = 0
326

Adems,
e (t) es acotado =) (t) = e (t) + R (t) es acotado.
Qu ocurre con (t)?
= f0 (, ) = f0 (, e + R)
Tenemos dos casos:
1. Seguimiento Local: valores pequeos de k (0)k, ke (0)k, kR (t)k
Sistema de Fase Mnima =) El origen de = f0 (, 0) es
asintticamente estable
=) (t) es acotada para k (0)k , ke (0)k ,
kR (t)k suficientemente pequeos
327

2. Seguimiento Global: valores grandes de k (0)k, ke (0)k, kR (t)k


Qu condicin se requiere del sistema = f0 (, ) ?
Ejemplo 12.1 Sea el sistema
x 1 = x2
x 2 = a sin x1
y = x1

bx2 + cu

e1 = x1 r , e2 = x2 r
e 1 = e2
e 2 = a sin x1 bx2 + cu r
1
u = [a sin x1 + bx2 + r k1 e1 k2 e2 ]
c
e 1 = e2
e 2 = k1 e1 k2 e2
Ver los resultados de simulacin en el ejemplo 13.21 del libro de Khalil.
328

12.2.

Seguimiento Robusto por Modos Deslizantes

Considere el sistema SISO con incertidumbre acoplada


x = f (x) + g (x) [u + (t, x, u)]
y = h (x)
f (0) = 0 , h (0) = 0 , x 2 Rn , u 2 R , y 2 R

con grado relativo , 1 n, en D0 D Rn


Lg Lif 1 h (x) = 0 , i = 1, 2, . . . ,
Lg Lf 1 h (x)

a > 0 ; 8x 2 D0

329

1 ; 8x 2 D0

Forma Normal:
= f0 (, )
i = i+1 , 1 i 1
= Lf h (x) + Lg Lf 1 h (x) [u + (t, x, u)]
y = 1
f0 (0, 0) = 0
Seal de referencia r (t):
r (t) y todas sus derivadas hasta r() (t) son acotadas para todo
t
0, y la sima derivada r() (t) es una funcin contnua a
tramos en t;
Se dispone de las seales r (t) , , r() (t) en lnea.
Objetivo:
lm [y (t)

t!1

r (t)] = 0 .
330

Con el cambio de variables


2
3
2
r (t)
6
7
6
R = 4 ...
5 , e=4
r( 1) (t)

1
..
.

el sistema (en la forma normal) queda

r
r

( 1)

7
5=

R,

= f0 (, e + R)
e 1 = e2
..
.
e 1 = e
e = Lf h (x) + Lg Lf 1 h (x) [u + (t, x, u)]

r() (t)

Superficie Deslizante (viendo a e como control virtual):


s = (k1 e1 + + k 1 e 1 ) + e ,
331

s (t) 0 =) e =

(k1 e1 + + k 1 e 1 )

= f0 (, e + R)
e 1 = e2
..
.
e
Disense k1 k 1
2
0
1
6 0
0
6
6 ..
..
6 .
.
6
4 0
0
k1
k2

(k1 e1 + + k 1 e 1 )

tales que la matriz

..
.

0
0
..
.

0
0
..
.

0
k3

0
k

1
k

0
1
..
.

7
7
7
7 sea Hurwitz .
7
5

Suposicin 12.2 El sistema = f0 (, ) es BIBS (Bounded Input


Bounded State Stable).
332

s = (k1 e1 + + k 1 e 1 ) + e =
1

s =

1
X

ki e i + e

i=1

ki ei+1 + Lf h (x) + Lg Lf 1 h (x) [u + (t, x, u)]

i=1

u=

1
Lg Lf 1 h (x)
s =

" 1
X

ki ei+1 + Lf h (x)
+

(t, x, v)

(t, x, v)
% (x) + 0 |v| , 0 0 < 1
Lg Lf 1 h (x)
s
v=
(x) sat
, ">0
"
333

r() (t) + v

i=1

Lg Lf 1 h (x) v

r() (t)

(x)

% (x)
+
1 0

>0

Ejercicio 12.3 Qu propiedades se pueden probar para esta ley de


control?

334

Parte V
Regulacin robusta estructural:
Control Integral

335

Leccin 13
Control Integral

336

[28, Seccin 12.3]La regulacin es un caso especial del seguimiento,


cuando la seal a seguir r (t) es constante. La accin integral permite
obtener regulacin a pesar de incertidumbres y/o perturbaciones que
produzcan una desviacin constante en la variable a regulada. A esto se
debe su importancia fundamental en control clsico.
Considere el sistema
x = f (x, u, w)
y = h (x, w)
ym = hm (x, w)
x 2 Rn estado , u 2 Rp entrada de control , y 2 Rp variable controlada ,

ym 2 Rm salida medida , w 2 Rl parmetros y perturbaciones desconocidas c


Objetivo:

lm y (t) ! r

t!1

r 2 Rp referencia constante.
337

Defnase
v = (r, w) , e (t) = y (t)

Suposicin: e se puede medir.


Condicin de estado estacionario: Supnga que, para cada w 2
Rl , existe un nico par (xss , uss ) que satisface las ecuaciones
0 = f (xss , uss , w)
0 = h (xss , w) r
Estabilice el sistema en el punto de equilibrio x = xss para toda w 2 Rl .
Ejercicio 13.1 Se puede reducir esto a un problema de estabilizacin
trasladando el punto de equilibrio al origen mediante el cambio de variables
x = x xss , u = u uss ?
Accin Integral:
=e
338

Sistema extendido:
x = f (x, u, w)
= h (x, w) r
Tarea: Estabilice el sistema extendido en el punto (xss ,
ss produce uss

ss ),

Explicar mejor que la tarea ahora consiste en estabilizar la variedad de operacin. No les ha quedado muy claro!

339

dnde

13.1.

Control Integral via linealizacin (de


Taylor) [28, Seccin 12.4]

13.1.1.

Retroalimentacin de estados

Retroalimentacin de estados:
u=

K1 x

Ojo: e no es un estado!!

K2

K3 e

Sistema en lazo cerrado:


x = f (x , K1 x
= h (x, w) r

K2

K3 [h (x, w)

Puntos de equilibrio:
0 = f (
x, u, w)
0 = h (
x, w) r
u = K1 x K2
340

r] , w)

nico punto de equilibrio en


x = xss ,

ss

, u = uss .

Linealizacin alrededor de (xss , ss ):

x xss
=
ss

= (A

BK)

@f
@h
A 0
, A=
(x, u, w)
, C=
(x, w)
C 0
@x
@x
eq
eq

@f
@h
B
B=
, B=
(x, u, w)
, C=
(x, w)
0
@u
@x
eq
eq

K = K 1 + K 3 C , K2

A=

341

Lema 13.2 (A , B) es controlable si y slo si


1. (A , B) es controlable y

A B
2. rango
=n+p
C 0
Tarea: Disee K, independiente de v = (r, w), tal que (A BK) es
Hurwitz para todo v.
(xss , ss ) es un punto de equilibrio exponencialmente estable para
el sistema en lazo cerrado. Todas las soluciones que se inician en su
regin de atraccin convergen a el cuando t tiende a infinito
e (t) ! 0 , cuando t ! 1
Ejemplo 13.3 Pndulo
=

a sin b + cT
342

Objetivo: regule en
x1 =

(A

, x2 = , u = T ,

x 1 = x2
x 2 = a sin (x1 + ) bx2 + cu

a
0
xss =
, uss = sin
0
c
= x1
2
3
2 3
0
1 0
0
4
5
4
a cos
b 0
A=
, B= c 5
1
0 0
0

K1 = k1 , k2 , K2 = k3 , K3 = 0

BK) es Hurwitz si

b + k2 c > 0 , (b + k2 c) (a cos + k1 c)
343

k3 c > 0 , k3 c > 0

a
1
1 , 2
c
c
k3
k2 > 0 , k3 > 0 , k1 > 1 + 2
k2
El controlador est dado por
Supnga que

u = k1 (
=

k2

k3

que es el controlador PID clsico.

13.1.2.

Retroalimentacin de salida

Si slo se miden (e, ym ) el controlador integral puede ser


=e=y r
z = F z + G1 + G2 ym
u = Lz + M1 + M2 ym + M3 e
344

Tarea: Disee F, G1 , G2 , L, M1 , M2 , M3 , independientes de v, tales


que Ac sea Hurwitz para todo v
2
3
A + BM2 Cm + BM3 C , BM1 , BL
C
0
0 5
Ac = 4
G2 C m
G1
F
Cm =

@hm
(x, w)
@x

345

eq

13.2.

Control Integral via Modos Deslizantes [28, Seccin 14.1.4]


= f0 (, , w)
1 = 2 ,
..
.
1 = ,
= b (, , u, w) + a (, , w) u
y = 1
a (, , w)

Objetivo:

a0 > 0

y (t) ! r , cuando t ! 1
ss = [r, 0, , 0]T
346

Condicin de estado estacionario: Para cada w existe un nico par


(ss , uss ) que satisface las ecuaciones
0 = f0 (ss , ss , w)
0 = b (ss , ss , uss , w) + a (ss , ss , w) uss
Defnase

z=

ss

e 0 = y
2
e1
6 e2
6
, e = 6 ..
4 .
e

347

r
3

7 6
7 6
7=6
5 4

r
2
..
.

3
7
7
7
5

z = f0 (, , w) , f0 (z, e, w, r)
e 0 = e1 ,
e 1 = e2 ,
..
.
e 1 = e ,
e = b (, , u, w) + a (, , w) u
Retroalimentacin parcial de los estados: {e1 , , e } son medidas
s = k 0 e 0 + k1 e 1 + + k 1 e 1 + e
k0 , , k

se eligen de tal forma que el polinomio

+ + k1 + k0

sea Hurwitz.
s = k0 e1 + k1 e2 + + k 1 e + b (, , u, w) + a (, , w) u
348

s =

(, , u, w, r) + a (, , w) u

(, , u, w, r)
% (e) + 0 |u| , 0 0 < 1
a (, , w)

s
u=
(e) sat

(e)

% (e)
+
1 0

Para |s|

, ss

a0 (1

>0
0 )

Qu pasa con las otras variables de estado?


z = f0 (z, e, w, r)
= A + Bs , (A
es Hurwitz
)

s
s = a () (e) sat + () ,
349

= [e0 , , e 1 ]T

1 (kzk) V1 (z, w, r)
2 (kzk)

@V1
f0 (z, e, w, r)
3 (kzk) , 8 kzk (kzk)
@z
V2 () = T P , P A + AT P = I
= {|s| c} \ V2 c2 1 \ {V1 c0 }

= {|s| c} \ V2 c2 1 \ {V1
2 ( (2 ))}

Todas las trayectorias que se inician en entran en en tiempo finito


y permanecen all para todo tiempo futuro.
En el intererior de existe un nico punto de equilibrio en
(z = 0 , e = 0 , e0 = e0 ) , s = k0 e0 , uss =

(0)

Bajo condiciones adicionales


el origen de z = f0 (z, 0, w, r) es exponencialmente estable
350

el anlisis local dentro de muestra que, para valores suficientemente


pequeos de , todas las trayectorias convergen al punto de equilibrio
cuando el tiempo tiende a infinito.

351

Parte VI
Observabilidad y el Diseo de
Observadores

352

Leccin 14
Introduccin

353

El objetivo de esta parte del curso es dar una perspectiva acerca del
problema de observacin en control y los mtodos ms importantes. Se
hace una seleccin personal del problema y de las soluciones.
Nos restringiremos a una visin determinstica, excluyendo la importante perspectiva de los sistemas estocsticos.

14.0.1.

Formulacin del problema

Considere que se tiene el sistema dinmico


x = f (t, x, u, d, p) , x (t0 ) = x0
y = h (t, x)
z = g (t, x)
en dnde x es el estado, u corresponde al vector de entradas medidas,
d corresponde al vector de entradas no medidas, p es el vector de parmetros desconocidos, y es el vector de variables de salida medidas y z
354

es una funcin del estado que se quiere estimar.


El problema general de observacin (no estocstica y sin perturbaciones en la medicin) se puede formular de la siguiente manera:
Observabilidad: Dado un intervalo de tiempo t 2 [t0 , t0 + T ] , T >
0, es posible determinar unvocamente el estado inicial z0 =
g (t0 , x0 ) utilizando la indormacin disponible (u, y)?
Observador: Existe un sistema dinmico
=

()

que estime asintticamente (en t. finito) (aproximadamente...) a


z?

14.0.2.

Motivacin

Existen diversos problemas tiles que motivan esta formulacin:


355

1. Estimacin (robusta) de los estados internos del sistema con fines


de control
2. La identificacin de los parmetros de un sistema
3. La estimacin simultnea de los parmetros y los estados (observacn adaptable)
4. La deteccin de fallas en sistemas dinmicos
5. La eliminacin/sustitucin/robustificacin de sensores costosos

14.0.3.

Organizacin del curso

El camino que seguiemos es estudiar los dos problemas para clases


de sistemas cada vez ms complejas:
1. Sistemas estticos o sin memoria
356

2. Sistemas dinmicos lineales


a) El caso invariante en el tiempo
b) El caso variante en el tiempo
3. Mtodos de diseo para sistemas dinmicos no lineales
a) Mtodos por aproximacin (Linealizacin) (Ej. EKF)
b) Mtodos por transformacin
1) Uso de difeomorfismos
2) Uso de inmersiones
c) Mtodos por interconexin

357

Parte VII
Observabilidad

358

Leccin 15
Sistemas estticos o sin
memoria

359

Sea el sistema esttico (consideramos el caso sin ruido y sin incertidumbres) f : [0, 1) Rn ! Rq
y (t) = f (t, x (t)) , x 2 Rn , y 2 Rq , t

donde se desea estimar la variable (seal) x a partir de las mediciones


de la variable (seal) y. Ejemplo: recuperar la imgen tridimensional a
partir de sus proyecciones bidimensionales (camaras).
Existen dos situaciones (extremas) esencialmente diferentes:
x (t) arbitraria: es decir, x (t1 ) y x (t2 ) no estn (co)relacionados, o
sea el valor de uno no tiene que ver con el del otro, entonces el
valor de x (t) debe ser recuperado de la medicin en el mismo
instante de tiempo y (t).
x (t) = x0 constante: Entonces las observaciones y (t) en distintos instantes de tiempo se complementan para determinar el valor de x0 .
360

Es claro que las condiciones bajo las cuales podemos determinar a x (t)
a partir de y (t) deben ser muy distintas en ambos casos. Las situaciones
intermedias son mezclas de las situaciones extremas consideradas.

15.0.4.

Repaso de algunos conceptos bsicos de funciones

Sean X, Y dos conjuntos. Sus elementos sern denotados por x, y,


respectivamente.
Relacin: Una relacin R es un subconjunto del conjunto producto
X Y . Se dice que x est relacionado con y si (x, y) 2 R.
Funcin: Una funcin (mapa) f es una relacin con dos propiedades
adicionales:
1. 8 x 2 X , 9 y 2 Y tal que (x, y) 2 f
361

2. Para cada x 2 X existe un nico y 2 Y tal que (x, y) 2 f


Por esta razn se escribe f : X ! Y y entonces y = f (x)

Una relacin R en X, Y se puede ver como una funcin r : X !


subconjuntos (Y ) o una funcin multivaluada.
Relacin inversa La inversa de R (denotada como R 1 ) es la relacin
definida como el subconjunto de Y X tal que (y, x) 2 R 1 si y
slo si (x, y) 2 R
Ntese que:

La inversa de cualquier relacin siempre existe y es una relacin.


La inversa de una funcin f siempre existe, pero en general
f 1 no es una funcin, sino una funcin multivaluada (relacin)!
362

Funcin inyectiva: f : X ! Y es inyectiva si [y = f (x1 ) ^ y = f (x2 )] =)


x1 = x2
Funcin sobreyectiva: f : X ! Y es sobreyectiva si 8 y 2 Y existe
al menos un x 2 X tal que y = f (x)
Funcin biyectiva: f : X ! Y es biyectiva si es inyectiva y sobreyectiva.
La relacin inversa f
tiva

es una funcin si y solo si f es biyec-

Si f es inyectiva entonces su inversa f 1 : Y ! X no es una


funcin. Pero en un dominio restringido f 1 : f (X) ! X es
una funcin.

363

15.0.5.

Caso invariante en el tiempo

Si el mapa (deformacin) f : Rn ! Rq no cambia con el tiempo


y (t) = f (x (t)) , x 2 Rn , y 2 Rq

entonces las condiciones de solubilidad para x (t) arbitraria o constante


son idnticas!
Teorema 15.1 Se puede determinar unvocamente x a partir de y si y
slo si el mapa f : Rn ! Rq es inyectivo.
En realidad este teorema es una tautologa, ya que la inyectividad de
f significa que, dado un y exista un nico valor de x tal que y = f (x).
Si f : Rn ! Rq es inyectivo entonces tiene que ocurrir que q
n:
es decir el nmero de mediciones debe ser igual o superior al nmero de
variables por estimar! Ej: De la imagen bidimensional de una cmara es
imposible (en general) determinar la ubicacin de un objeto en el espacio
tridimensional! (Para lograrlo se requiere informacin adicional).
364

15.0.5.1.

Caso Lineal

Si f : Rn ! Rq es lineal, entonces
y (t) = Ax (t) , x 2 Rn , y 2 Rq
dnde A es una matriz constante de dimensin q n.
Teorema 15.2 f es inyectiva si y slo si
los vectores columna de A son linealmente independientes
m
rango (A) = {# de vectores columna de A linealmente independientes} = n
m
rango (A) = {# de vectores fila de A linealmente independientes} = n
Prueba. =):
365

Proposicin 15.3 Observabilidad: Se puede determinar unvocamente x a partir de y si y slo si A es inyectiva.


Cmo se puede calcular en este caso a x? Consideremos dos casos:
Caso cuadrado: q = n En este caso A es una matriz cuadrada y, si
es inyectiva, ser invertible (regular). Asi que en este caso
x (t) = A 1 y (t)
Caso no cuadrado: q 6= n A es rectangular y no posee inversa! Pero
si A es inyectiva entonces q > n y la matriz AT A es cuadrada y regular (o
positiva definida), as que posee inversa! En este caso podemos entonces
obtener
AT y (t) = AT Ax (t)
de donde se obtiene a x
x (t) = AT A
366

AT y (t)

La matriz AT A
AT es la denominada Moore-Penrose seudoinversa de A y tiene propiedades de optimalidad cuando hay ruidos en las
mediciones!
15.0.5.2.

Caso no lineal especial

Decidir si una funcin f : Rn ! Rq es inyectiva es en general muy


difcil. An el caso ms especial de biyectividad (= inyectividad + sobreyectividad) es difcil. Si f es continuamente diferenciable y nos contentamos con la inyectividad (o biyectividad = invertibilidad) local,
entonces una idea de linealizacin es muy til:
Teorema 15.4 (Teorema de la funcin inversa) Sea f : Rn ! Rn
contnuamente diferenciable y considrese un punto x con imagen y =
f (
x). Si la matriz Jacobiana de f evaluada en x
@f (
x)
Jf (
x) =
@x
367

es regular (= invertible) entonces f es invertible localmente y la inversa


es contnuamente diferenciable.
Este Teorema nos permite obtener condiciones suficientes de observabilidad local para nuestro problema:
Teorema 15.5 Bajo las condiciones del Teorema anterior dada una
seal y (t) cercana a y (ky (t) yk ) entonces existe una nica x (t)
cercana a x (kx (t) xk ) tal que y (t) = f (x (t)).

15.0.6.
R

Caso variante en el tiempo

Retornemos al caso general variante en el tiempo f : [0, 1) Rn !


y (t) = f (t, x (t)) , x 2 Rn , y 2 Rq , t

entonces las condiciones de solubilidad para x (t) arbitraria o constante


son muy diferentes!
368

15.0.6.1.

x (t) arbitraria

El valor de x (t) debe ser recuperado de la medicin en el mismo


instante de tiempo y (t).
Teorema 15.6 Se puede determinar unvocamente x a partir de y si y
slo si el mapa f (t, ) : Rn ! Rq es inyectivo para cada instante de
tiempo t 0
Este caso es similar al caso invariante en el tiempo.
Por ejemplo, en el caso lineal
y (t) = A (t) x (t) , x 2 Rn , y 2 Rq
dnde A (t) es una matriz constante de dimensin q n.
Teorema 15.7 f es inyectiva si y slo si los vectores columna de A
son linealmente independientes 8t 0
369

Proposicin 15.8 Observabilidad: Se puede determinar unvocamente x a partir de y si y slo si A (t) es inyectiva 8t 0
Se puede calcular a x de la siguiente manera:
x (t) = AT (t) A (t)
y la matriz AT A
15.0.6.2.

AT (t) y (t)

AT es la Moore-Penrose seudoinversa de A.

x (t) = x0 constante

Este es un caso ms interesante, ya que las observaciones y (t) en


distintos instantes de tiempo se complementan para determinar el valor
de x0 .
Como todos los valores de y (t) en el intervalo de tiempo t 2 [t0 , t1 ]
son consecuencia de la misma x0 , entonces
y (t) = f (t, x0 ) , x0 2 Rn , y (t) 2 Rq , t
370

puede verse como un mapa F que le asigna a x0 la seal en el tiempo


y (t) con t 2 [t0 , t1 ], es decir
y[t0 ,t1 ] = F (x0 )
As que el dominio de este mapa es x 2 Rn pero su codominio no es Rq
sino las seales de tiempo en Rq , que es un espacio de dimensiones infinitas. Con esta interpretacin, entonces la condicin de observabilidad
es la misma que en el caso anterior:
Teorema 15.9 Se puede determinar unvocamente x0 a partir de y[t0 ,t1 ]
si y slo si el mapa F : Rn ! Y[tq 0 ,t1 ] es inyectivo.
Otra vez, esta es una tautologa: inyectividad de F significa que cada
x0 produce una nica y[t0 ,t1 ] . En general, es difcil determinar cundo una
funcin F es inyectiva.
371

15.0.6.3.

Caso Lineal

Si f es lineal, entonces
y (t) = A (t) x0 , x0 2 Rn , y (t) 2 Rq
dnde A (t) es una matriz variante en el tiempo de dimensin q n. Una
forma de determinar la inyectividad del operador F correspondiente es
la siguiente:
1. Premultiplicar la ecuacin por la transpuesta de A (t)
AT (t) y (t) = AT (t) A (t) x0
2. Integrar en el intervalo de tiempo t 2 [t0 , t1 ] (como x0 es constante
puede salir de la integral)
t1
t1
T
A (t) y (t) dt =
AT (t) A (t) dt x0
t0

t0

372

Teorema 15.10 Sea f lineal. El operador


F correspondiente
es inyec

t1 T
tivo si y slo si la matriz cuadrada t0 A (t) A (t) dt es positiva definida. En este caso la matriz es regular (invertible).
Comentario 15.11 Ntese que en este caso, a diferencia del caso anterior, no se requiere que q n, es decir, que el nmero de mediciones
sea mayor o igual que el nmero de incgnitas. Una solucin de esta
aparente contradiccin se obtiene al notar que Y[tq 0 ,t1 ] es de dimensin
infinita (para todo q), as que el nmero de mediciones es en cualquier
caso mayor que el nmero de incgnitas (de dimensin finita n).
Ejemplo 15.12 Sea el sistema

x1
2
y (t) = t t
x2
373

, x 2 R2 , y (t) 2 R

Considere el intervalo de tiempo t 2 [0, T ]. Entonces


T
T

t
T
t t2 dt
A (t) A (t) dt =
2
t
0
0
1 3
T 2 3
t t
T
=
dt = 31 4
3
4
t
t
T
0
4

1 4
T
4
1 5
T
5

que es regular para toda T > 0, ya que su determinante es

1
15

1
16

T 8.

Proposicin 15.13 Observabilidad: Se puede determinar unvocamente x0 a partir de y[t0 ,t1 ] si y slo si F es inyectivo.
Cmo se puede calcular en este caso a x?
Despejar a x0
x0 =

t1

t0

A (t) A (t) dt

374

t1

t0

AT (t) y (t) dt

La idea de Linealizacin utilizada en el caso anterior (en dimensiones


finitas) para asegurar inyectividad local de un mapa no lineal puede
ser extendido al caso de un mapa no lineal F : Rn ! Y[tq 0 ,t1 ] , pero el
resultado es un tanto ms tcnico.

375

Leccin 16
Sistemas lineales

376

Considrese un sistema lineal variante en el tiempo (SLVT)

x (t) = A (t) x (t) + B (t) u (t) , x (t0 ) = x0


L :
y (t) = C (t) x (t)
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . Se asumen conocidas (A, B, C) y
u (t) e y (t) se pueden medir.

16.1.

Solucin de la ecuacin diferencial

La ecuacin diferencial tiene una solucin nica para cada entrada


u (t) y para cada condicin inicial x (t0 ) = x0 , que se puede escribir
explcitamente como
t
x (t) = (t, t0 ) x0 + t0 (t, ) B ( ) u ( ) d
t
y (t) = C (t) (t, t0 ) x0 + C (t) t0 (t, ) B ( ) u ( ) d
377

A veces es til representar la solucin como


x (t) = ' t, t0 , x0 , u[t0 ,t]
para enfatizar la dependencia del estado actual x (t) del estado inicial y
de la entrada.
Ntese que la solucin ' t, t0 , x0 , u[t0 ,t] es
1. Lineal en x0
2. Lineal en u (t)
3. La suma de la solucin a x0 y a u (t)

16.2.

La matriz de transicin de estado

(t, t0 ) es una matriz cuadrada de dimensin n y se denomina la matriz de transicin de estados, mediante la cual la solucin de la ecuacin
378

diferencial
x (t) = A (t) x (t) , x (t0 ) = x0
se puede expresar como
x (t) =

(t, t0 ) x0

Algunas propiedades importantes de la matriz de transicin de estados son:


1.

(t, t) = I
Si en el tiempo t se inicia en el estado x0 , entonces en ese instante
el sistema se encuentra en x0

2.

(t, t1 )

3.

4.

@ (t,t0 )
@t

(t1 , t0 ) =

(t, t0 ) para todos los valores de t0 , t1 , t.

(t, t0 ) siempre existe y


= A (t)

(t, t0 )

(t, t0 ) =

379

(t0 , t)

5. Si A es constante

(t, t0 ) = eA(t

t0 )

dnde la matrix exponencial est dada por


e

16.3.

At

1
X
1 k k
1
=
A t = I + At + A2 t2 +
k!
2
k=0

Problema de Observabilidad

La pregunta por la observabilidad en el intervalo t 2 [t0 , t1 ] es la


siguiente:
Cundo es posible determinar el estado inicial x0 si se miden y (t) y
u (t) en el intervalo de tiempo t 2 [t0 , t1 ]?
Aunque en realidad usualmente nos interesa determinar el estado
actual x (t) si se puede determinar a x0 entonces el estado actual se
380

puede determinar de la expresin


x (t) =

(t, t0 ) x0 +

(t, ) B ( ) u ( ) d

t0

16.4.

Determinacin de la Observabilidad

De la solucin general se puede escribir


t
y (t) C (t)
(t, ) B ( ) u ( ) d = C (t)

(t, t0 ) x0

t0

Ntese que el lado izquierdo es conocido y en el lado derecho la incgnita


entra linealmente. De los resultados del captulo anterior se obtiene que
Teorema 16.1 Se puede determinar unvocamente a x0 a partir de
y[t0 ,t1 ] y u[t0 ,t1 ] , es decir, el sistema es observable, si y slo si la ma381

triz cuadrada
M (t1 , t0 ) =

t1

(t, t0 ) C T (t) C (t)

(t, t0 ) dt

t0

es positiva definida. En este caso la matriz es regular (invertible).


La matriz M (t0 , t1 ) se denomina Grammiano de Observabilidad y
depende del intervalo [t0 , t1 ]. A medida que crece t1 el Grammiano
crece: si t2 > t1 entonces M (t2 , t0 ) > M (t1 , t0 ) (en el sentido de
la positividad definida).
Ntese que la observabilidad del sistema lineal no depende de la
entrada seleccionada, as que se puede elegir por simplicidad a
u (t) = 0. Esto es cierto para cualquier sistema cuya solucin se
pueda expresar como la suma de un trmino dependiente solo de
x0 y otro dependiente solo de u (t).
382

16.5.

Un caso especial: Sistemas lineales Invariantes en el tiempo

Considrese un sistema lineal invariante en el tiempo (SLIT) (consideramos u (t) = 0 sin prdida de generalidad)
x (t) = Ax (t) , x (0) = x0
y (t) = Cx (t)
con A, C constantes. La salida se puede escribir explcitamente como
y (t) = CeAt x0
Para establecer observabilidad se utiliz un mtodo que usa la operacin
de integracin, para combinar la informacin contenida en cada instante
de tiempo. Ahora se presentar un mtodo alternativo basado en la
diferenciacin, para combinar la informacin en un instante con el de
383

sus vecinos temporales: a la ecuacin anterior se le agregarn nuevas


ecuaciones obtenidas de su derivada temporal. Ntese que si se conoce
a y (t) en teora se pueden calcular sus derivadas temporales de cualquier
orden
y (t) = CeAt x0
dy (t)
= y (t) = CAeAt x0
dt
d2 y (t)
= y (t) = CA2 eAt x0
dt2
..
.
dk y (t)
= y (k) (t) = CAk eAt x0
dtk

384

Si se evalan las ecuaciones en un instante de tiempo, por ejemplo t = 0,


se obtiene (e0 = I)
2
3 2
3
y (0)
C
6 y (0) 7 6 CA 7
6
7 6
7
6 y (0) 7 6 CA2 7
6
7=6
7 x0
6 ..
7 6 ..
7
4 .
5 4 .
5
k
(k)
CA
y (0)
| {z }
Ok

Recordando el anlisis del captulo anterior para este caso se puede


concluir que
Es posible determinar x0 unvocamente de esta ecuacin
si y slo si para algn valor de k la matriz Ok es inyectiva
() rango (Ok ) = n
385

Se puede ir aumentando el valor de k paulatinamente, hasta que se


cumpla la condicin. Si nunca se cumple la condicin, hay algn valor
de k para detenerse? SI. k = n 1
Por el Teorema de Cayley-Hamilton (una matriz cuadrada satisface
su propio polinmio caracterstico) se sabe que
An =

p0 I

p1 A

p2 A2

pn 1 An

Cuando se aumenta k se aumentan filas (no columnas) a Ok . Pero de


la expresin anterior se sabe que las filas nuevas de On son linealmente
dependientes de las anteriores, con lo que el rango no puede aumentar!
Repitiendo este argumento se concluye que
rango (O1 ) rango (On 1 ) = rango (On ) = rango (On+1 ) =
Teorema 16.2 Se puede determinar unvocamente a x0 a partir de
y (t), es decir, el sistema Lineal Invariante en el Tiempo es observa386

ble, si y slo si
2

6
6
6
rango (On 1 ) = rango 6
6
4

C
CA
CA2
..
.
CAn

7
7
7
7=n
7
5

Esto equivale a que la matriz cuadrada


t1
T
M (t1 , t0 ) =
eA (t t0 ) C T CeA(t

t0 )

dt

t0

sea positiva definida para cualesquiera t0 < t1 . En este caso la matriz


es regular (invertible).
Otra forma de caracterizar la observabilidad de la pareja (C, A) es
el denominado criterio de Hautus-Belevitch-Popov: El sistema es obser387

vable si y slo si
rango

16.6.

sI

A
C

= n , 8s 2 C .

El principio de dualidad para sistemas


lineales

En el caso lineal existe una estrecha relacin entre el problema de


observabilidad y el de controlabilidad: estos conceptos son duales.
Sea el sistema lineal invariante en el tiempo

x (t) = Ax (t) + Bu (t) , x (t0 ) = x0


L :
y (t) = Cx (t)
El sistema

D
L

x D (t) = AT xD (t) + C T uD (t) , xD (t0 ) = xD


0
y D (t) = B T xD (t)
388

es el sistema dual de L .
D
Teorema 16.3 L es observable si y slo si D
L es controlable. L es
observable si y slo si L es controlable.

Esta relacin es vlida para sistemas variantes en el tiempo, pero es


un tanto ms sutil.

389

Leccin 17
Sistemas con parmetros
desconocidos (Identificabilidad)

390

Considere el sistema no lineal con parmetros desconocidos, que entran en forma lineal en el modelo
x (t) = f (t, x (t) , u (t)) + g (t, x (t) , u (t)) p , x (t0 ) = x0
y (t) = x (t)
con x (t) 2 Rn , u (t) 2 Rp , p 2 Rr , dnde p corresponde a los parmetros
constantes y desconocidos. Se asumen conocidas las funciones f , g y
u (t), x (t) se pueden medir.
Escribiendo la ecuacin, separando los trminos conocidos de los
desconocidos
x (t)

f (t, x (t) , u (t)) = g (t, x (t) , u (t)) p ,

391

premultiplicando por g T e integrando


t1
g T (t, x (t) , u (t)) [x (t) f (t, x (t) , u (t))] dt =
t0
t1
=
g T (t, x (t) , u (t)) g (t, x (t) , u (t)) dt p .
t0

Proposicin 17.1 Se pueden determinar unvocamente los parmetros


p en el intervalo [t0 , t1 ] si y slo si la matriz
t1
g T (t, x (t) , u (t)) g (t, x (t) , u (t)) dt
t0

es positiva definida (o sea regular).


Ntese que la posibilidad de identificar los parmetros depende en
general de las entradas y las trayectorias seguidas por el sistema! Esto
est asociado con el fenmeno conocido de las condiciones de excitacin
persistente para la identificacin de sistemas.
392

Leccin 18
Sistemas no lineales

393

Considrese un sistema no lineal


x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . Se asumen conocidas las funciones
f , h y u (t) e y (t) se pueden medir.

18.1.

Solucin de la ecuacin diferencial

La ecuacin diferencial tiene una solucin nica para cada entrada


u (t) y para cada condicin inicial x (t0 ) = x0 , que generalmente es
imposible de expresar analticamente.
Es til representar la solucin como
x (t) = ' t, t0 , x0 , u[t0 ,t]
y (t) = h ' t, t0 , x0 , u[t0 ,t]
394

para enfatizar la dependencia del estado actual x (t) del estado inicial y
de la entrada.

18.2.

La funcin de transicin de estados

' t, t0 , x0 , u[t0 ,t] es un vector con n componentes y se denomina la


funcin de transicin de estados.
Algunas de sus propiedades importantes son:
1. ' t0 , t0 , x0 , u[t0 ,t0 ] = x0
2. ' t, t1 , ' t1 , t0 , x0 , u[t0 ,t1 ] , u[t1 ,t] = ' t, t0 , x0 , u[t0 ,t] para todos
los valores de t0 t1 t.

395

18.3.

Problema de Observabilidad

La pregunta por la observabilidad en el intervalo t 2 [t0 , t1 ] es la


siguiente:
Cundo es posible determinar el estado inicial x0 si se miden y (t) y
u (t) en el intervalo de tiempo t 2 [t0 , t1 ]?
Aunque en realidad usualmente nos interesa determinar el estado
actual x (t), si se puede determinar a x0 , entonces el estado actual se
puede determinar usando la funcin de transicin de estados.

18.4.

Determinacin de la Observabilidad

De la solucin general se puede escribir


y (t) = h ' t, t0 , x0 , u[t0 ,t]
396

En el intervalo [t0 , t] esta igualdad puede interpretarse como un mapa


que, dada una entrada u[t0 ,t] , le asigna al estado inicial x0 una salida
y[t0 ,t]
y[t0 ,t] = Hu[t0 ,t] (x0 )
Esta interpretacin, junto con los resultados del captulo 1 nos permiten
afirmar

Teorema 18.1 En el intervalo de tiempo [t0 , t], dada una entrada u[t0 ,t] ,
se puede determinar unvocamente a x0 a partir de y[t0 ,t1 ] , es decir, el sistema es observable para la entrada u[t0 ,t] , si y slo si el mapa Hu[t0 ,t] (x0 )
is inyectivo.
Ntese que la observabilidad del sistema no lineal depende, en general, de la entrada seleccionada!

397

Ejemplo 18.2 Considere el sistema

x 1
1 u (t)
x1
=
x 2
0 1
x2

x1
y= 1 0
x2

Si la entrada es u (t) = 1 entonces el sistema (LIT) es observable, ya


que

1 0
rango (O1 ) = rango
=2
1 1
Si la entrada es u (t) = 0 entonces el sistema (LIT) no es observable,
ya que

1 0
rango (O1 ) = rango
=1<2
1 0
398

18.5.

Sistemas no lineales sin entradas

En general es difcil determinar la observabilidad del sistema no lineal. Como la idea integral usada en el caso lineal variante en el tiempo
es difcil de usar aqu, se usar el mtodo diferencial para hallar condiciones suficientes de observabilidad. Para simplificar se considerar el caso
especial en que la entrada es constante (cero en partcular). Considrese
un sistema no lineal (SNL) sin entradas
x (t) = f (x (t)) , x (t0 ) = x0
y (t) = h (x (t))
De la ecuacin de salida, en general, no es posible determinar unvocamente a x, ya que hay mas incgnitas que ecuaciones. Para agregar ms

399

ecuaciones se tomarn derivadas temporales.


y (t) = h (x (t))
d
@h (x)
@h (x)
y (t) = h (x (t)) =
x (t) =
f (x) := Lf h (x)
dt
@x
@x
@Lf h (x)
@Lf h (x)
y (t) =
x (t) =
f (x) := L2f h (x)
@x
@x
..
.
y

(k)

@Lkf 1 h (x)
@Lkf 1 h (x)
(t) =
x (t) =
f (x) := Lkf h (x)
@x
@x

Aqui se utilizan las derivadas de Lie de h a lo largo de f : Lkf h (x). Si


se evalan las ecuaciones en un instante de tiempo, por ejemplo t = 0,

400

se obtiene

2
6
6
6
6
6
4

y (0)
y (0)
y (0)
..
.
y (k) (0)

7 6
7 6
7 6
7=6
7 6
5 4

h (x0 )
Lf h (x0 )
L2f h (x0 )
..
.
Lkf h (x0 )

7
7
7
7 := ok (x0 )
7
5

Recordando el anlisis del primer captulo para este caso se puede concluir que
Es posible determinar x0 unvocamente de esta ecuacin
si y slo si para algn valor de k el mapa de observabilidad
(no lineal) ok (x0 ) es inyectivo.
Se puede ir aumentando el valor de k paulatinamente, hasta que se
cumpla la condicin. Si nunca se cumple, hay algn valor de k para
detenerse? NO
Se obtiene asi una condicin suficiente de observabilidad
401

Teorema 18.3 Se puede determinar unvocamente a x0 a partir de


y (t), es decir, el sistema es observable, si para algn valor de k el
mapa de observabilidad (no lineal) ok (x0 ) es inyectivo.
Ejemplo 18.4 Considere el sistema

x 1
x2
=
x 2
0
y = x31

402

El mapa de observabilidad es
3
x1
o1 (x) =
3x21 x2

3
x31
, o2 (x) = 4 3x21 x2 5 ,
6x1 x22
2
3
x31
2 3
3
6 3x2 x2 7
x1
6 1 7
6 6x1 x2 7
6 3x21 x2 7
2 7
6
6
7
o3 (x) = 4
7
2 5 , ok (x) = 6 6x3
6x1 x2
6 2 7
6 0
7
6x32
4
5
..
.

0 1
0 2 .
Ntese que o1 (x) no es inyectivo, ya que o1
= o1
Igual sucede con o2 (x). Pero o3 (x) si es inyectivo, por lo que el sistema
es globalmente observable.
Ya que, en general, decidir acerca de la inyectividad de un mapa
no lineal es difcil, se usa frecuentemente un criterio de observabilidad
403

local, que se basa en la linealizacin del mapa de observabilidad:


Teorema 18.5 El sistema es localmente observable en el punto x0 si
para algn valor de k la matriz de observabilidad
Ok (x0 ) =

@ok (x0 )
@x

es inyectiva, es decir, tiene rango (Ok (x0 )) = n.

404

Leccin 19
Sistemas con estados y
parmetros desconocidos

405

Considere el sistema no lineal con parmetros desconocidos, que entran en forma lineal en el modelo y con estados no conocidos
y 1 (t) = f1 (t, x (t) , u (t)) + g (t, x (t) , u (t)) p , y1 (t0 ) = y10
z (t) = f2 (t, x (t) , u (t)) , z (t0 ) = z0
y2 (t) =h (z (t))
y1 (t)
x (t) =
z (t)
con x (t) 2 Rn , u (t) 2 Rp , p 2 Rr , dnde p corresponde a los parmetros
constantes y desconocidos. Se asumen conocidas las funciones f1 , f2 , g
y u (t), y1 (t), y2 (t) se pueden medir.
El anlisis de observabilidad e identificabilidad se puede dividir en
2 partes:
1. Observabilidad de los estados:
Se analiza la observabilidad del subsistema que no depende de los
406

parmetros
z (t) = f2 (t, x (t) , u (t)) , z (t0 ) = z0
y2 (t) = h (z (t))
En el caso de que haya observabilidad es posible recuperar el valor
verdadero de los estados z (t) en tiempo finito.
2. Identificabilidad de los parmetros:
Escribiendo la primera ecuacin, separando los trminos conocidos
de los desconocidos
y 1 (t)

f1 (t, x (t) , u (t)) = g (t, x (t) , u (t)) p ,

407

premultiplicando por g T e integrando


t1
g T (t, x (t) , u (t)) [y 1 (t) f1 (t, x (t) , u (t))] dt =
t0
t1
=
g T (t, x (t) , u (t)) g (t, x (t) , u (t)) dt p .
t0

Entonces los parmetros p se pueden determinar en el intervalo


[t0 , t1 ] (una vez los estados hayan sido determinados) si y slo si
la matriz
t1
g T (t, x (t) , u (t)) g (t, x (t) , u (t)) dt
t0

es positiva definida (o sea regular).


Aunque la estructura del sistema analizado es muy particular, la mayor
parte de los mtodos de diseo de observadores adaptables se basan en
llevar al sistema a esta forma.
408

Parte VIII
Diseo de Observadores para
Sistemas Lineales

409

Hasta ahora se ha discutido la posibilidad (terica) de determinar el


estado inicial de un sistema dinmico a partir del conocimiento perfecto
del modelo y de las seales de entrada y de salida. Si un sistema es
(localmente) observable entonces en principio es posible recuperar (en
tiempo finito) el valor del estado inicial, con lo que se puede determinar
perfectamente su valor actual.
Aunque la inversin del mapa de observabilidad constituye una posibilidad de recuperar el valor del estado, es deseable y preferible en
control, entre otras razones porque se introduce retroalimentacin, la
utilizacin de algoritmos recursivos de estimacin u observadores. Un
observador (asinttico de estados) para el sistema (planta)

x (t) = f (x (t) , u (t)) , x (t0 ) = x0


:
y (t) = h (x (t))

410

con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq , es un sistema dinmico


z (t) = g (z (t) , u (t) , y (t)) , z (t0 ) = z0
x (t) = k (z (t) , u (t) , y (t))
con z (t) 2 Rm , que tiene como entradas las seales medibles (u (t) , y (t))
de la planta, tal que para toda condicin inicial z0 y x0 y toda entrada
u (t) el valor estimado del estado x (t) converge asintticamente al valor
verdadero x (t)
lm (
x (t) x (t)) = 0
t!1

En el caso lineal, es decir cuando el sistema est descrito por

x (t) = A (t) x (t) + B (t) u (t) , x (t0 ) = x0


L :
y (t) = C (t) x (t)

y para el cual la caracterizacin de la observabilidad es muy completa,


presentaremos dos mtodos bsicos para disear observadores (lineales):
El mtodo de Kalman y el de Luenberger.
411

Leccin 20
El Observador de Kalman

412

Para determinar un algoritmo recursivo para estimar el estado actual x (t) de la planta L procederemos aqui con un mtodo integral
anlogo al utilizado para determinar la observabilidad (una alternativa mejor pero ms compleja es utilizar optimizacin). De la solucin
general para el sistema escribimos (suponemos para la deduccin, por
simplicidad, que u (t) = 0)
y ( ) = C ( )

(, t) x (t) , t

premultiplicando a ambos lados e integrando se obtiene


t
T
(, t) C T ( ) y ( ) d = N (t, t0 ) x (t) ,
t0

N (t, t0 ) ,

t
T

(, t) C T ( ) C ( )

t0

413

(, t) d

(20.1)

Dnde N (t, t0 ) es la matriz de observabilidad (de primera clase), anloga a M (t, t0 ) definida en el captulo 16. Como
T

N (t, t0 ) =
=

(t0 , t) M (t, t0 )

(t0 , t) =

t
T

(t0 , t)

(, t0 ) C T ( ) C ( )

(, t0 )

(t0 , t) d

t0

es claro que N (t, t0 ) es positiva definida si y slo si M (t, t0 ) lo es, es


decir, el sistema es observable en el intervalo [t0 , t] si y slo si N (t, t0 )
es positiva definida.
De (20.1) se puede obtener x (t) en cuanto N (t, t0 ) sea regular. Como aqu nos interesa obtener una versin recursiva, procederemos de la
siguiente manera, en cuatro pasos:

414

20.1.

Paso 1: Obtener una ecuacin diferencial para N (t, t0)

Por simplicidad lo hacemos a travs de M (t, t0 )

dM (t, t0 )
d t T
=
(, t0 ) C T ( ) C ( ) (, t0 ) d
dt
dt t0
=

(t, t0 ) C T (t) C (t)

415

(t, t0 )

luego
dM (t, t0 )
d
=
dt
d
=

(t, t0 ) N (t, t0 ) (t, t0 )


dt
T
(t, t0 )
dN (t, t0 )
N (t, t0 ) (t, t0 ) + T (t, t0 )
(t, t0 ) +
dt
dt
d (t, t0 )
+ T (t, t0 ) N (t, t0 )
dt

@N (t, t0 )
= T (t, t0 ) AT (t) N (t, t0 ) +
+ N (t, t0 ) A (t)
(t, t0 )
@t

por lo tanto
dN (t, t0 )
=
dt

AT (t) N (t, t0 ) N (t, t0 ) A (t)+C T (t) C (t) , N (t0 , t0 ) = 0 .

416

20.2.

Paso 2: Obtener un ecuacin diferencial para el estimado

De (20.1) podemos escribir, definiendo


z (t) , N (t, t0 ) x (t)

t
T

(, t0 ) C T ( ) y ( ) d =

(t, t0 ) z (t) .

t0

Derivando esta ecuacin con respecto al tiempo obtenemos


T

(t, t0 ) C T (t) y (t) =

o sea
z (t) =

(t, t0 ) AT (t) z (t) +

(t, t0 ) z (t) ,

AT (t) z (t) + C T (t) y (t) , z (t0 ) = 0

Tan pronto como N (t, t0 ) se haga regular, entonces


x (t) = N

(t, t0 ) z (t)
417

20.3.

Paso 3: Obtener una ecuacin diferencial para la inversa de N (t, t0)

Como
N

(t, t0 ) N (t, t0 ) = I

y utilizando la ecuacin diferencial para N (t, t0 ) se sigue que


dN

(t, t0 )
=
dt
=

dN (t, t0 )
N 1 (t, t0 )
dt
N 1 (t, t0 ) AT (t) N (t, t0 ) N (t, t0 ) A (t) +
N

(t, t0 )

+C T (t) C (t) N

(t, t0 )

es decir,
dN

(t, t0 )
= N 1 (t, t0 ) AT (t) + A (t) N 1 (t, t0 )
dt
N 1 (t, t0 ) C T (t) C (t) N 1 (t, t0 )
418

20.4.

Paso 4: Obtener una ecuacin diferencial para el estimado del estado

Si se escribe x (t) para el estimado de x (t)


z (t) =

dN (t, t0 )
d
x (t)
x (t)+N (t, t0 )
=
dt
dt

AT (t) N (t, t0 ) x (t)+C T (t) y (t) ,

entonces
d
x (t)
= A (t) x (t) + N
dt

(t, t0 ) C T (t) (y (t)

419

C (t) x (t)) .

20.5.

Filtro de Kalman

Una deduccin ms completa nos lleva al Filtro de Kalman para la


planta

x (t) = A (t) x (t) + B (t) u (t) + v (t) , E {x (t0 )} = 0


Ln :
y (t) = C (t) x (t) + w (t)
dnde
n

E [x (t0 )

E {x (t0 )}] [x (t0 )

420

E {x (t0 )} = 0
o
E {x (t0 )}]T = P0

y v (t) y w (t) son ruido blanco Gaussiano con


E {v (t)} = 0

E v (t) v T ( ) = Q (t) (t
E {w (t)} = 0

E w (t) wT ( ) = R (t) (t

)
)

Q (t) = QT (t)

R (t) = RT (t) > 0

E x (t0 ) v T (t) = 0
E x (t0 ) wT (t) = 0
E v (t) wT ( ) = 0
est dado por
d
x (t) = A (t) x (t) + B (t) u (t) + H (t) (y (t) C (t) x (t)) , x (t0 ) = 0
dt
d
P (t) = P (t) AT (t) + A (t) P (t) P (t) C T (t) R 1 (t) C (t) P (t) + Q (t) ,
dt
H (t) = P (t) C T (t) R 1 (t) ,
P (t0 ) = P0
421

Aqui

n
P (t) = E [x (t)

x (t)] [x (t)

x (t)]T

es la matriz de covarianza del error de estimacin y el Filtro de Kalman


minimiza la varianza del error de observacin.
Ntese que el Filtro (o el observador) tienen una estructura muy peculiar: consisten en una copia de la planta con un trmino de inyeccin
de salida, que es la diferencia entre la salida de la planta y la salida
estimada, multiplicada por una ganancia. Esta ganancia se calcula mediante la matriz de covarianza del error de observacin, que satisface
una Ecuacin Diferencial de Riccati.

422

Leccin 21
El observador de Luenberger

423

La idea original de Luenberger es proponer como observador (identidad) para la planta

x (t) = A (t) x (t) + B (t) u (t) , x (t0 ) = x0


L :
y (t) = C (t) x (t)
otro sistema dinmico lineal
L :

d
x (t) = F (t) x (t) + G (t) u (t) + H (t) y (t) , x (t0 ) = x0
dt

que tiene como entradas las seales medibles de la planta y que debe
ser diseado de tal manera que
lm (
x (t)

t!1

x (t)) = 0

para toda condicin inicial de la planta x (t0 ) y del observador x (t0 ).


424

Un requerimiento natural al observador es que si x (t0 ) = x (t0 ) entonces debe satisfacerse que x (t) = x (t) para todo t t0 . Esta condicin se satisface si
F (t) = A (t)
G (t) = B (t)

H (t) C (t)

Esto implica que el observador puede ser escrito de la forma


d
x (t) = A (t) x (t) + B (t) u (t) + H (t) [y (t) y (t)] , x (t0 ) = x0
dt
L :
y (t) = C (t) x (t)
que tiene otra vez la estructura de ser una copia de la planta modificada por una inyeccin de salida multiplicada por una ganancia. Esta
ganancia H (t) es el nico parmetro a disear en el observador, y debe
seleccionarse para satisfacer la condicin de convergencia.
El error de estimacin de estados
e (t) = x (t)
425

x (t)

satisface la ecuacin
e (t) = [A (t)

H (t) C (t)] e (t) , e (t0 ) = x (t0 )

x (t0 )

(21.1)

H (t) se debe seleccionar de tal forma que el origen (e = 0) de (21.1)


sea asintticamente estable.
Ntese que este es un problema de estabilizacin de la ecuacin de
error de observacin, anloga al problema de estabilizacin en control
(dualidad). Esta retroalimentacin, si est bien diseada, le otorga una
robustez que no poseen los algoritmos en lazo abierto calculados de la
caracterizacin de la observabilidad.
Cmo se puede disear H (t) para lograr la estabilizacin?

426

21.1.

Sistemas Lineales Invariantes en el tiempo

En este caso A y C son constantes y se puede elegir H tambin


constante, de tal forma que la matriz (A HC) sea Hurwitz, es decir,
que todos sus valores propios tengan parte real negativa. Esto se puede
lograr de mltiples formas. Dos de ellas son:

21.1.1.

Asignacin de polos

Si la pareja (C, A) es observable, entonces se pueden asignar arbitrariamente los valores propios de (A HC) mediante algn algoritmo
de asignacin de polos. Por ejemplo, la Frmula de Ackermann para
sistemas con una sola salida.

427

21.1.2.

Solucin de un problema de LQR

Corresponde al caso estacionario del Filtro de Kalman. Se elige H


de la siguiente manera
AP + P AT

P C T R 1 CP + Q = 0
H = P CT R

Para esto hay que resolver una ecuacin algebraica de Riccati, dnde P
es positiva definida.
Este mtodo tambin puede ser utilizado en el caso variante en el
tiempo, pero con la ecuacin diferencial de Riccati. Con esto se obtiene
un Filtro de Kalman.

428

Leccin 22
El principio de separacin lineal

429

Una utilizacin tpica de un observador de estados es en la implementacin de un control diseado suponiendo que se pueden medir todos los
estados. Qu se puede asegurar en este caso acerca del lazo cerrado a
travs del observador? En el caso lineal se cuenta con un resultado muy
satisfactorio en este sentido: el teorema o principio de separacin.
Supngase que se tiene un sistema lineal

x (t) = A (t) x (t) + B (t) u (t) , x (t0 ) = x0


L :
y (t) = C (t) x (t)
y que se conoce una ley de control por retroalimentacin lineal de los
estados
u = K (t) x (t)
que estabiliza exponencialmente el origen del sistema

x (t) = [A (t) B (t) K (t)] x (t) , x (t0 ) = x0


LSC :
y (t) = C (t) x (t)
430

Cuando todos los estados no pueden ser medidos se disea un observador


lineal
d
x (t) = A (t) x (t) + B (t) u (t) + H (t) [y (t) y (t)] , x (t0 ) = x0
dt
L :
y (t) = C (t) x (t)
para el cual la matriz H (t) ha sido diseada de tal forma que el error
de observacin de los estados
e (t) = [A (t)

H (t) C (t)] e (t) , e (t0 ) = x (t0 )

x (t0 )

tiene e = 0 como punto de equilibrio exponencialmente estable.Si se


cierra el lazo de control a travs del observador se obtiene el sistema
8
x (t) = A (t) x (t) B (t) K (t) x (t) , x (t0 ) = x0
>
>
< d
x (t) = A (t) x (t) + B (t) u (t) + H (t) [y (t) y (t)] , x (t0 ) = x0
dt
LOC :
y (t) = C (t) x (t)
>
>
:
y (t) = C (t) x (t)
431

La dinmica de este sistema puede ser reescrita en trminos del error


de observacin como

x (t) = [A (t) B (t) K (t)] x (t) B (t) K (t) e (t) , x (t0 ) = x0


LOC :
e (t) = [A (t) H (t) C (t)] e (t) , e (t0 ) = x (t0 ) x (t0 )
o en forma matricial

d x (t)
A (t)
LOC :
=
dt e (t)

B (t) K (t)
B (t) K (t)
0
A (t) H (t) C (t)

x (t)
e (t)

Si B (t) K (t) es acotada, entonces se puede demostrar fcilmente que


tanto e (t) como x (t) convergen exponencialmente. Si las matrices son
constantes (el caso invariante en el tiempo) entonces este resultado es
inmediato, ya que los valores propios de la matriz del sistema en lazo
cerrado es triangular superior a bloques y entonces

A BK
BK
= {A BK} [ {A HC}
0
A HC
432

que por diseo estn todos en el semiplano izquierdo del plano complejo.
Por lo tanto: si se disean independientemente un control por retroalimentacin de estados que estabilice a la planta y un observador que
estime asintticamente los estados de la planta, entonces la conexin
de ellos asegura la estabilidad del sistema en lazo cerrado y, en el caso
invariante en el tiempo, los valores propios en lazo cerrado son la unin
de los valores propios del sistema controlado por retroalimentacin de
los estados y los valores propios del observador.

433

Parte IX
Diseo de observadores para
sistemas no lineales

434

Existen una gran diversidad de mtodos para el diseo de observadores para sistemas no lineales, aunque no existe ninguno universal que
se pueda aplicar a todos los casos. Veremos algunos de ellos.

435

Leccin 23
Mtodos por aproximacin
(linealizacin)

436

Considrese un sistema no lineal


x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . Todos estos mtodos se basan en
aproximar al sistema no lineal por uno lineal, obtenido de la linealizacin
de este en un punto de operacin o a lo largo de una trayectoria.

23.1.

Linealizacin en un punto de operacin

Si para una entrada constante u el sistema tiene un punto de equilibrio x que produce una salida y, es decir,
0 = f (
x, u) ,
y = h (
x)
437

entonces se puede obtener una aproximacin lineal del sistema para


cuando la entrada, la salida y el estado se encuentren cerca de sus valores
de operacin. Si definimos las desviaciones de estas variables como
x (t) = x (t)

x , y (t) = y (t)

y , u (t) = u (t)

u ,

La linealizacin es
x (t) = Ax (t) + Bu (t) , x (t0 ) = x
y (t) = Cx (t)
(
x,
u)
(
x,
u)
x)
A = @f @x
, B = @f@u
, C = @h(
@x

que es un sistema lineal invariante en el tiempo. Si el sistema Linealizado


es observable, entonces el sistema no lineal ser localmente observable
en una vecindad de x, y un observador construido para el sistema linealizado operar aproximadamente bien para el sistema no lineal, siempre
y cuando sus trayectorias permanezcan cerca del punto de operacin.
Basados en la linealizacin es posible construir dos tipos de observadores
438

23.1.1.

Un observador lineal para el sistema linealizado

d
x
dt

(t) = A
x (t) + Bu (t) + H (y (t)
y (t) = C x (t)
(A HC) Hurwitz

23.1.2.

y (t)) , x (t0 ) = x

Un observadore no lineal para el sistema linealizado

d
x (t)
dt

= f (
x (t) , u (t)) + H (y (t)
y (t) = h (
x (t))
(A HC) Hurwitz
439

y (t)) , x (t0 ) = x0

23.2.

Linealizacin a lo largo de una trayectoria

Si para una entrada fija, posiblemenete variante con el tiempo u (t)


el sistema tiene una trayectoria solucin x (t) que produce una salida
y (t), es decir,
d
x (t) = f (
x (t) , u (t)) ,
dt
y (t) = h (
x (t))
entonces se puede obtener una aproximacin lineal del sistema para
cuando la entrada, la salida y el estado se encuentren cerca de sus valores
de operacin. Si definimos las desviaciones de estas variables como
x (t) = x (t)

x (t) , y (t) = y (t)

440

y (t) , u (t) = u (t)

u (t) ,

La linealizacin es
x (t) = A (t) x (t) + B (t) u (t) , x (t0 ) = x 0
y (t) = C (t) x (t)
u(t))
u(t))
A (t) = @f (x(t),
, B (t) = @f (x(t),
, C (t) =
@x
@u

@h(
x(t))
@x

que es un sistema lineal variante en el tiempo. Si el sistema Linealizado


es observable, entonces el sistema no lineal ser localmente observable
en una vecindad de x (t), y un observador construido para el sistema
linealizado operar aproximadamente bien para el sistema no lineal,
siempre y cuando sus trayectorias permanezcan cerca de la trayectoria
de referencia.
En particular, la aplicacin del diseo del Filtro de Kalman junto
con la linealizacin lleva al Filtro de Kalman Extendido, uno de los

441

filtros ms utilizados en la prctica. Su estructura es la siguiente

x (t) = f (x (t) , u (t)) , x (t0 ) = x0


:
y (t) = h (x (t))
8 d
x (t) = f (
x (t) , u (t)) + H (t) (y (t) h (
x (t))) , x (t0 ) = x0
>
dt
>
>
T
1
>
< H (t) = P (t) C (t) R (t)
d
P (t) = P (t) AT (t) + A (t) P (t) +
EKF :
dt
>
>
P (t) C T (t) R 1 (t) C (t) P (t) + Q (t)
>
>
:
u(t))
x(t))
A (t) = @f (x(t),
, C (t) = @h(
@x
@x
La convergencia de todos estos observadores/filtros slo puede asegurarse localmente.
Para la implantacin:
Calcule las matrices A (t) y C (t), que dependen de (
x (t) , u (t))
Resolver la Ecuacin Diferencial de Riccatti
442

Calcular H (t)

443

Leccin 24
Mtodos exactos

444

24.1.

Linealizacin exacta del error de observacin

Considrese un sistema no lineal


x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . La idea bsica del mtodo de
linealizacin exacta del error de observacin [9, 29, 30, 57] es buscar
una transformacin de los estados y de las salidas
= T (x)
= (y)
tales que sean difeomorfismos, es decir, que sean invertibles y que tanto
la transformacin como la inversa sean diferenciables, y que el sistema
445

en las nuevas variables el sistema toma la forma


(t) = A (t) + ' ( (t) , u (t)) , (t0 ) = 0
(t) = C (t)

(24.1)

Si este es el caso, y la pareja (C, A) es observable, entonces se puede


construir un observador para el sistema transformado como

(t) = A (t) + ' ( (t) , u (t)) + H (t) (t) , (t0 ) = 0


dt
(t) = C (t)
El error de observacin (e = ) en las nuevas coordenadas est dado
por
e (t) = (A HC) e (t)
que es una dinmica lineal. Si (A HC) es Hurwitz, el estado del observador converge al verdadero valor del estado en forma exponencial.
446

Un estimado para el sistema original se obtiene invirtiendo la transformacin

1
x (t) = T
(t)

El problema ms difcil en el mtodo consiste en encontrar las tranformaciones T y , si es que estas existen. Desafortunadamente, las
condiciones de existencia de tales transformaciones son tan fuertes, que
slo pocos sistemas pueden ser transformados de esta manera. As que
este mtodo solo puede ser aplicado a una pequea clase de sistemas.

24.1.1.

Condiciones de existencia de la transformacin

Consideremos el caso de sistemas con una sola salida y dnde slo


se utiliza la transformacin de los estados
: x = f (x) + g (x, u) ,

x (0) = x0 , y = h (x) ,
447

(24.2)

dnde x 2 Rn , u 2 Rp , y 2 R, f , g son campos vectoriales suaves con


f (0) = 0 y g (x, 0) = 0, 8x, y h es una funcin suave con h (0) = 0.

Teorema 24.1 Existe un difeomorfismo local T () en una vecindad U0


del origen que transforma al sistema (24.2) a la forma (24.1) si y slo
si en U0 :
1. (i) rango dh (x) , dLf h (x) , , dLnf 1 h (x) = n ,

2. (ii) adif r , adjf r = 0 , 0 i , j n 1 ,

3. (iii) g , adjf r = 0 , 0 j n 2 , 8u 2 Rm
dnde r es el campo vectorial que es solucin de

Lr h (x) , Lr Lf h (x) , Lr Lnf 1 h (x) = 0 0 1 .


(24.3)
El difeomorfismo es global U0 = Rn , si y slo si las condiciones
(i)-(iii) se satisfacen en Rn y, adicionalmente,
448

4. (iv) adif r , 0 i n

1 , son campos vectoriales completos.

Comentario 24.2 Lf h (x) = @h(x)


f (x) denota la derivada de Lie de
@x
la funcin h a lo largo del campo vectorial f , y Lif h (x) = Lf Lif 1 h (x) .
La diferencial dh de una funcin suave h : U Rn ! R puede
ser
locales como un vector fila del gradiente
h escrita en coordenadas
i
@h(x)
@h(x)
, , @xn . Para dos campos vectoriales f y g se define
@x1
un nuevo campo vectorial mediante el parntesis de Lie [f , g] =
@g
f @f
g, en coordenadas locales. Para parntesis de Lie repetidos el
@x
@x
operador ad est definido como

ad0f g = g , adif g = f , adif 1 g .


Un campo vectorial f se dice que es completo si las soluciones de la
ecuacin diferencial x = f (x) puede ser definida para todo tiempo t 2 R.

Comentario 24.3 Las condiciones del Teorema son muy fuertes y no


son satisfechas en forma genrica. La condicin (i) corresponde a la
449

observabilidad local para todo x del sistema sin entradas, y se satisface


en casi todos los casos. La condicin de conmutatividad (ii) es muy
restrictiva.
Comentario 24.4 Esta es la forma ms simple del problema de linealizacin del error de observacin. Este puede ser extendido de diversas maneras. Por ejemplo, permitiendo que la transformacin T sea un
semi-difeomorfismo (la inversa no se requiere que sea diferenciable) se
pueden disear observadores continuos cuando la condicin (i) del teorema no es satisfecha [58, 44]. Si se incluye una transformacin de salida
[30] y/o una transformacin de la escala de tiempo [19, 43] o el uso
de tcnicas de inmersin, mediante las cuales el sistema transformado
puede poseer una dimensin mayor al original permite una extensin
del mtodo [31, 25]. Adicionalmente, es posible considerar formas en
las que se permitan derivadas de la entrada y de la salida [60, 20].
450

24.1.1.1.

Un caso especial

[30, 38] Un sistema de dimensin dos


x = [x2 ,

(x)]T , x (0) = x0 , y = x1 ,

puede ser transformado en la Forma de Observador (24.1) mediante


z = T (x) e y = (y) si y slamente si
2

En este caso
dnde

(y) ,

(x) = k0 (y) + k1 (y) x2 + k2 (y) x22 .


00

d (y)
,
dy

(y) =

k2 (y)

(y) ,

(0) = 0 ,

y \begin{align*}

'01 (y) = k1 (y)


'2 (y) = k0 (y)

0
0

(y) , '1 (0) = 0


(y) , '2 (0) = 0 .

451

Ejemplo 24.5 Considere el sistema

x =

x2
x1

x2

x21

y = x1 ,

x22

x1
x1 x2

u,

Este sistema es transformable a la forma (24.1)

0 1
y u (
y + 1) ln |
y + 1|
z =
z+
0 0
ln |
y + 1| (1 + y) (1 + ln |
y + 1| + u)
y = z1 .

452

mediante una transformacin de estados y de salidas [30], dadas por


y = (y) = exp (y) 1 , y =

exp (x1 ) 1
z = T (x) =
exp (x1 ) (x2 + 1)

ln |z + 1|
x = T 1 (z) = z2 +1 1
.
1
z1 +1

24.2.

(
y ) = ln |
y + 1| , : R ! ( 1, 1) ,
1

, T : R2 ! ( 1, 1) R

Mtodo de Linealizacin Aproximada


del Error de Observacin

Ver [32] y [8, 35].

x = f (x, u) + g (x, u) ,
:
y = h (x) ,
453

x (0) = x0

Mediante la Transformacin de Estados z = T (x) el sistema


(f, h) =) Forma Normal de Observador No Lineal
Forma Normal de Observador No Lineal Aproximada
8
< z = Az + G ( , y, u) + (y, u) , z (0) = z0 ,
y = Cz ,
aonf :
:
= Hz ,

N.B.: La Transformacin y el trmino no estn unvocamente determinados.


Observador de orden completo
8
>
< z = A
z + L (
y y) + G ( + N (
y y) , y, u) + (y, u) ,
:
y

=
C
z

,
>
: = H z
Matrices L, N deben ser diseadas.
454

Definiendo las variables de error como z , z z, y , y y, ,


, (H + N C) z = + N y, y una nueva no linealidad
(, , y, u) ,
Ntese que

( , y, u)

( + , y, u) ,

(0, ; y, u) = 0 para toda , y, u.

Dinmica del Error

z = AL z

G (HN z, , y, u) ,

z (0) = z0 ,

dnde AL , A + LC, and HN , H + N C.


L se selecciona de tal forma que la matriz (A
La ecuacin de error, z = z
lineal.
455

LC) es Hurwitz.

z, es entonces aproximadamente

Seleccinesen T , e tales que el tamao del trmino de perturbacin del error es minimizado en una regin compacta del
espacio de estado.
No hay certeza de convergencia.

24.3.

Linealizacin por inmersin

Considrese un sistema no lineal


x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . La idea bsica de este mtodo
consiste en usar una inmersin de los estados en un espacio de dimensin
mayor
= T (x) , 2 Rm , m > n
456

de tal forma que el sistema en las nuevas variables toma la forma


(t) = A (t) + ' ( (t) , u (t)) , (t0 ) = 0
(t) = C (t)
Si este es el caso, y la pareja (C, A) es observable, entonces se puede
construir un observador para el sistema transformado como

(t) = A (t) + ' ( (t) , u (t)) + H (t) (t) , (t0 ) = 0


dt
(t) = C (t)
El error de observacin (e = ) en las nuevas coordenadas est dado
por
e (t) = (A HC) e (t)
que es una dinmica lineal. Si (A HC) es Hurwitz, el estado del observador converge al verdadero valor del estado en forma exponencial.
Un estimado para el sistema original se obtiene seudo-invirtiendo la
457

transformacin, es decir, haciendo una proyeccin del estado 2 Rm a


x 2 Rn

I
x (t) = T (t)
Ejemplo 24.6 Considere el sistema

x 1 = x1 + g (x2 )
x 2 = ax2
y = x1
dnde g (x2 ) = x2 (x22 1). Los mapas de observabilidad son

x1
o1 (x) =
: no inyectivo
x1 + g (x2 )
2
3
x1
5 : inyectivo
o2 (x) = 4 y + x32 x2
3ay (3a + 1) y 2ax2
458

Entonces, si a 6= 0 el sistema es globalmente observable. Si a = 0 no


hay observabilidad, ya que hay indistinguibilidad.
Si se deriva una vez ms
y (3) (t) =
=

3ay (t) (3a + 1) y (t) + 2a2 x2


(4a + 1) y (t) a (4 + 3a) y (t)

3a2 y

Es decir, se puede representar a este sistema por uno lineal


2
3 2
32
3
1
0
1
0
1
d 4
5 4 2 5
2 5 = 4 0
0
1
dt
2
3
3a
a (4 + 3a)
(4a + 1)
3
2
3

1
y = 1 0 0 4 2 5
3

que es observable. As que se puede construir un observador para el sistema en las nuevas coordenadas y recuperar un estimado de los estados
459

originales mediante, por ejemplo, la proyeccin


x1 = 1
1
x2 =
3a1
2a

24.4.

(3a + 1) 2

Transformacin a sistemas afines en


los estados no medibles

Considrese un sistema no lineal


x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq . La idea bsica de este mtodo
(similar a la de linealizacin exacta del error de observacin) es buscar
460

una transformacin (difeomorfismos) de los estados y de las salidas


= T (x) , =

(y)

tales que el sistema en las nuevas variables tome la forma


(t) = A (y (t) , u (t)) (t) + ' ( (t) , u (t)) , (t0 ) = 0
(t) = C (t)

(24.4)

Si este es el caso, u (t) es tal que A (y (t) , u (t)) sea uniformamente


acotada y la pareja (C, A (y (t) , u (t))) sea uniformamente observable,
entonces se puede construir un observador (tipo Kalman) para el sistema
transformado como

d
(t) + ' (, u) + H (t) (t) C (t) , (t0 ) = 0

(t)
=
A
(y,
u)

dt
d
P
dt

(t) = P (t) AT (y, u) + A (y, u) P (t) P (t) C T R 1 CP (t) + Q ,


H (t) = P (t) C T R 1 ,
P (t0 ) = P0
461

Un estimado para el sistema original se obtiene invirtiendo la transformacin

1
x (t) = T
(t)

El problema ms difcil en el mtodo consiste en encontrar las tranformaciones T y , si es que estas existen.

24.5.

Observador Lipschitz

Considere un sistema de la forma


x = Ax +
y = Cx .

(x, u) ,

Si se asume que la no linealidad


uniformemente en u, es decir,
k (x + z, u)

x (0) = x0

(x, u) es globalmente Lipschitz en x,


(x, u)k
462

kzk

Bajo estas condiciones, si existe una H y una P = P T y positiva definida


tales que se satisfaga la desigualdad
P (A

HC) + (A

HC)T P + P +

I + PP 0

entonces el sistema
d
x = A
x+
dt

(
x, u) + H (y

C x) ,

x (0) = x0

es un observador global y que converge exponencialmente para el sistema.

24.6.

El observador de alta ganancia

Considere un sistema afn en las entradas y con una sola salida


x (t) = f (x (t)) + g (x (t)) u (t) , x (t0 ) = x0
y (t) = h (x (t))
463

con x (t) 2 Rn , u (t) 2 Rp , y (t) 2 R. Supngase que el sistema con


entrada cero tiene un mapa de observabilidad de orden n 1
2
3
h (x)
6 Lf h (x) 7
6
7
6 L2 h (x) 7
on 1 (x) = 6 f
7
6 ..
7
4 .
5
Lnf 1 h (x)

es un difeomorfismo global, globalmente Lipschitz y que el sistema es


observable globalmente para cualquier entrada (uniformemente observable). Entonces, la transformacin de estados
= T (x) = on

(x) ,

lleva al sistema a la forma


(t) = Ao (t) + ' ( (t) , u (t)) , (t0 ) = 0
(t) = Co (t)
464

dnde

6
6
6
Ao = 6
6
4
Co =

0
0
..
.

1 0
0 1
.. . .
.
.
0 0 0
0 0 0
1 0

..
.

0
0
..
.

'1 (1 , u)
'2 (1 , 2 , u)
'3 (1 , 2 , 3 , u)
..
.

7
6
7
6
7
6
7 , ' (, u) = 6
7
6
4
1 5
0
'n (, u)

3
7
7
7
7
7
5

Si ' (, u) es globalmente Lipschitz en uniformemente en u entonces


existe un observador de la forma

(t)
=
A

(t)
+
'

(t)
,
u
(t)
+
H

(t)
C

(t)
, (t0 ) = 0
o
o
o
dt
2
3
0 0
6 0 2 0 7
6
7
= 6 .. .. . .
7
4 . .
. 0 5
n
0 0 0
465

que converge exponencialmente si (Ao Ho Co ) es Hurwitz y es suficientemente grande. La velocidad de convergencia es proporcional a
.

24.6.1.

Deduccin del Observador de Alta Ganancia

Considere el error de observacin e ,


e (t) = (Ao

que tiene dinmica

Ho Co ) e (t) + [' ( (t) + e (t) , u (t))

' ( (t) , u (t))] , e (t0 )

Si se realiza el cambio de variables


2

6
6
, 1e = 6
4

1
0
..
.
0

0
1

..
.
0

..
.
0
466

0
0
0
(n 1)

e1

6 e2
7
6
7
6 e3
7e = 6 2
6 ..
5
4 .

en
n 1

3
7
7
7
7
7
5

se obtiene
=

1 e = 1 (Ao

+ 1 ' (t) +

Ho Co ) 1 (t) +

1
(t) , u (t)
' ( (t) , u (t)) , (t0 ) = 0

467

Ntese que
2

6 0
6
1 A0 = 6 ..
4 .
0
2
6 0
6
6
= 6 ...
6
4 0
0
= A0

0
2

..
.
0
1

0
2

..
.
0
0

1 0

0
6
0 1
6

0 7
76
.. . .
.
76
. ..
.
...
0 56
4 0 0 0
n
0
0 0 0
32

0
0 2 0
3
7
6

0 76 0 0
.. 7 6 .. .. . .
...
6
.
. 7
76 . .
(n 1)
0 54 0 0 0
n
0 0 0
0

468

0
0
..
.

0
0
..
.

7
76
76
76
74
1 5
0

..
.

0
2

0
..
.

..
.
0

0
0
0
..
.
n

...
0
2

7 6
7 6
7 6
7=6
7 6
5 4

0
0 0
..
.

0 0
0 0

y que

C0

=
es decir
=

1 0
1 0

6
6
6
4

(Ao Ho Co ) (t) +

+ 1 ' (t) + 1 (t) , u (t)

0
0
..
.
0

..
.
0

..
.
0

3
0
0 7
7
7
0 5
n

' ( (t) , u (t)) , (t0 ) = 0

Como se asume que cada componente del vector ' (, u) es globalmente


Lipschitz en , uniformemente en u, es decir, para toda i = 1, , n
existe una ki , independiente de u, tales que para todo , z
|'i (1 + z1 , , i + zi , u)

'i (1 , , i , u)| ki k[z1 , , zi , 0, , 0]k .


469

Por lo tanto se tiene que las componentes de


satisfacen
1
i 1

'i 1 + 1 , , i +

i 1

[' ( (t) +

'i (1 , , i , u) ki

i , u

(t) , u (t))
1

En el caso de la norma Euclidiana, por ejemplo, y considerando


se tiene
1
i 1

[1 , , i , 0, , 0]

=
=
=

1
i 1

1
i

1 , 2 ,

q
12 +
1

i 1

2 2
2

i 1

i 2

[1 ,

i , 0, , 0

+ +
2

i 1

2(i 1) 2
i

+ + (i )2

12 + 22 + + i2 = k[1 , , i , 0

470

Si se realiza el cambio de variables (con > 0)


2

6 0
6
, 1 e = 6 ..
4 .
0

0
2

..
.
0

se obtiene

...
0

0
6
6
0 7
7
6
7e = 6
6
5
0
4
n

e1
e22
e33
..
.

enn

3
7
7
7
7
7
5

= 1 e = 1 (Ao Ho Co ) 1 (t) +

+ 1 ' (t) + 1 (t) , u (t)


' ( (t) , u (t)) , (t0 ) = 0

471

Ntese que
2

6 0
6
1 A0 = 6 ..
4 .
0
2
6 0
6
6
= 6 ...
6
4 0
0
= A0

0
2

..
.
0
1

0
2

..
.
0
0

1 0

0
6
0 1
6

0 7
76
.. . .
.
76
. ..
.
...
0 56
4 0 0 0
n
0
0 0 0
32

0
0 2 0
3
7
6

0 76 0 0
.. 7 6 .. .. . .
...
6
.
. 7
76 . .
(n 1)
0 54 0 0 0
n
0 0 0
0

472

0
0
..
.

0
0
..
.

7
76
76
76
74
1 5
0

..
.

0
2

0
..
.

..
.
0

0
0
0
..
.
n

...
0
2

7 6
7 6
7 6
7=6
7 6
5 4

0
0 0
..
.

0 0
0 0

y que

C0

=
es decir
=

1 0
1 0

6
6
6
4

(Ao Ho Co ) (t) +

+ 1 ' (t) + 1 (t) , u (t)

0
0
..
.
0

..
.
0

..
.
0

3
0
0 7
7
7
0 5
n

' ( (t) , u (t)) , (t0 ) = 0

Como se asume que cada componente del vector ' (, u) es globalmente


Lipschitz en , uniformemente en u, es decir, para toda i = 1, , n
existe una ki , independiente de u, tales que para todo , z
|'i (1 + z1 , , i + zi , u)

'i (1 , , i , u)| ki k[z1 , , zi , 0, , 0]k .


473

Por lo tanto se tiene que las componentes de 1 [' ( (t) + 1 (t) , u (t))
satisfacen

'

,
u
'
(
,

,
u)

k
1 [1 ,
i
1
1
i
i
i
1
i
i
i
i

En el caso de la norma Euclidiana, por ejemplo, y considerando


1
se tiene

2
i

T
1

[
,

,
0,

,
0]
=

,
i , 0, , 0
1
i
1
2
i
i

2
2
s
2 2 2
i

1 +
2 + +

=
i

s
2
2
1
1
=

+ + i2
i 1 1
i 2 2
q

12 + 22 + + i2 = k[1 , , i , 0,
474

Si se disea H0 tal que (Ao Ho Co ) sea Hurwitz, entonces para


cualquier matriz Q = QT > 0 existe una matriz P = P T > 0 que
satisface
(Ao Ho Co )T P + P (Ao Ho Co ) = Q
Eligiendo como candidata a funcin de Lyapunov
V () = T P
su derivada ser
h
V = T (Ao

Ho Co )T P + P (Ao Ho Co ) + 2P 1 ' (t) + 1

T Q + 2 kk kP k 1 ' (t) + 1 (t) , u (t)


' ( (t) , u (
T Q + 2k kP k kk2 =

dnde k = max {ki } y


Eligiendo

min

min

(Q)

2k kP k) kk2

(Q) es el valor propio ms pequeo de Q.


0

>

2k kP k
min (Q)
475

lo cual siempre es posible, ya que P , Q, k son independientes de


entonces

2kkP k
min (Q)t
min (Q)
V ( (t)) e
V ( (0))
converge exponencialmente a cero para todo

476

>

0.

477

Leccin 25
Control por retroalimentacin
de salida: Observador de Alta
Ganancia
478

25.1.

Retroalimentacin de salida: Un ejemplo

Para el sistema

x 1 = x2
x 2 = (x, u)
y = x1

supngase que el controlador u =

(x) estabiliza el origen de

x 1 = x2
x 2 = (x, (x)) .
Un Observador de Alta Ganancia (AG)

x1 = x2 + l1 (y

x2 =

x1 )

(
x, u) + l2 (y
479

x1 )

dnde

(x, u) es un modelo nominal de (x, u). El error de observacin


x1 = x1

x1 , x2 = x2

x1 =

l1 x1 + x2

x2 =

l2 x1 + (x, x)

(
x, (
x))
(x, (
x))

l1
l1 1
Disee L =
tal que A0 =
sea Hurwitz.
l2
l2 0
La matriz de transferencia de ! x es

1
1
Go (s) = 2
s + l1 s + l2 s + l1

(x, x) =

x2

Disee L para hacer sup!2R kGo (j!)k tan pequea como sea posible.
Seleccione
1
2
, l2 = 2 , " > 0
l1 =
"
"
480

"
Go (s) =
2
("s) + 1 "s + 2

"
"s + 1

Los Eigenvalores del observador son ( 1 /") y ( 2 /"), dnde


las races de
2
+ 1 + 2 = 0
sup kGo (j!)k = O (")
!2R

Ntese que
lm Go (s) = 0 ,

"!0

el efecto de atenuacin es mayor para pequeos valores de ".


Defnase
x1
1 =
, 2 = x2
"
y entonces
" 1 = 1 1 + 2
" 2 = 2 1 + " (x, x)
481

1,

son

Luego:
1. La cota final de es del rden de O (")
2. decrece ms rpido que una funcin exponencial e

25.1.1.

at/"

, a > 0.

El fenmeno de pico (The Peeking Phenomenon)


x1 (0) 6= x1 (0) =) 1 (0) = O (1/")

La solucin contiene un trmino de la forma


1
e
"

at/"

que aproxima una funcin impulso cuando " ! 0.


482

25.1.2.

Ejemplo numrico
x 1 = x2
x 2 = x32 + u
y = x1

Control por retroalimentacin de los estados (SFC: State Feedback


Control)
u = x32 x1 x2
Control por retroalimentacin de la salida (OFC: Output Feedback Control)

x1 = x2 +

2
"

(y

x2 = "12 (y x1 )
u = x32 x1 x2
483

x1 )

0.2

0.5

0.2
0

x2

x1

0.4
0.5

0.6

1.2

SF
OF: = 0.1
OF: = 0.01
OF: = 0.005

SF
OF: =0.1
OF: = 0.01
OF: = 0.005

0.8

1.5

10

Time (sec)

10

HGO: =0.1
HGO: =0.01
HGO: =0.005

7
6
5

x2ex2

100

50

150

SF
OF: = 0.1
OF: = 0.01
OF: = 0.005

200

250

300

Time (sec)

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

4
3
2
1
0

0.1

Time (sec)

0.01

0.02

0.03

0.04

0.05

Time (sec)

484

0.06

0.07

0.08

0.09

0.1

0.2

50

0.2

100

x2

x1

OF: =0.004
0

0.4

150

0.6

200

0.8

250

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

300

0.05

0.1

0.15

Time (sec)

0.2

0.25

0.3

0.35

0.4

Time (sec)

2000

10
9
8

1500

7
6

x2ex2

1000

500

5
4
3
2

0
1
0
500
0

0.05

0.1

0.15

0.2

Time (sec)

0.25

0.3

0.35

0.4

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.1

Time (sec)

Figura 25.1: Inestabilidad causada por el fenmeno de pico cuando " =


0.004.
485

0.1

0.04

SF
OF: =0.1
OF: = 0.01
OF: = 0.001

0.08

0.06

0.02

0.02

x2

x1

0.04
0.04

0.02
0.06

SF
OF: = 0.1
OF: = 0.01
OF: = 0.001

0
0.08
0.02

0.04

0.1

0.12

10

Time (sec)

10

0.09

0.1

Time (sec)

30
0.2
25
0

HGO: =0.1
HGO: =0.01
HGO: =0.001

20

x2ex2

0.2

0.4

0.6

10

SF
OF: = 0.1
OF: = 0.01
OF: = 0.001

0.8

15

0
0

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.1

Time (sec)

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

Time (sec)

Figura 25.2: Lazo cerrado con control saturado u = sat ( x32


486

x1

x2 )

Figura 25.3: Regin de atraccin con retro de estados saturada u =


sat ( x32 x1 x2 )
487

Figura 25.4: Regin de atraccin con retro de salida. " = 0.1 (dashed),
488
" = 0.05 (dashed-dot),

Analisis del sistema en lazo cerrado:


x 1 = x2
x 2 = (x, (x

25.1.3.

x))

" 1 =
" 2 =

1 1 + 2
2 1 + " (x, x)

Efecto del ruido de medicin

El Observador de Alta Ganancia es un diferenciador aproximado. La


funcin de transferencia de y ! x (con 0 = 0) es

2
1 + ("1 /2 ) s
1
!
cuando " ! 0
2
s
s
("s) + 1 "s + 2
La diferenciacin amplifica el ruido de medicin.

489

Figura 25.5: Anlisis del sistema en lazo cerrado: x 1 = x2 , x 2 =


(x, (x x)) , " 1 = 1 1 + 2 , " 2 = 2 1 + " (x, x)
490

491

y = x1 + v , kn = sup |v (t)| < 1 , kd = sup |


x1 (t)|
t 0
t 0
r !
kn
"opt = O
kd

492

Chapter 26
Dissipative Observer Design
Method

493

26.1.

Introduction

Observer design is usually a two step procedure:


System Transformation to a "simpler" system
Observer design for the transformed system

If transformed system is Linear + Nonlinearity, the nonlinearity


is compensated by High Gain, for example.
Our proposal: generalized and unified view of dealing with the
nonlinearity using dissipativity theory.
This eliminates restrictions and opens new design possibilities.
Since Dissipative Theory acts like a unifying theory in control, one
expects that the same can be true for observer design
494

The Dissipative Method can provide a unified framework to understand and compare dierent design methods, to design robust
observers and to integrate them in control and other interconnected loops.

26.2.

Dissipativity Theory

It was developed in the 60s and 70s especially by J.C. Willems


as a unified framework to understand the stability properties of
interconnected systems.
It has been motivated by the works on the absolute stability problem, Popovs criterion, Yakubovichs work, Kalman-Yakubovich
Lemma, Passivity, ....
It has become a very general framework for studying stability-like
properties, in particular through the work of Sontag.
495

It has been also physically motivated by the energy considerations


in physics, thermodynamics and electrical circuits.
It can be seen as a generalization of Lyapunov theory for systems
with interconnection ports.
It is useful for Robustness Analysis and Design

26.2.1.

A General Overview

496

Energy Balance:

dV (x)
dt

s(y, u)

V (x(t))
26.2.1.1.

d(x, u)

V (x(0))

t
0

s(y( ), u( ))d

Famous Dissipative actors

Passivity: V (x) y T u
ISS: V (x)

(kxk) , () 2 K1

1 (kxk) + 2 (kuk) , i () 2 K1

iISS: V (x)

1 (kxk) + 2 (kuk) , 1 () 2 K , 2 () 2 K1

IOSS: V (x)

1 (kxk) + 2 (kuk) + 3 (kyk) , i () 2 K1

Input Output Stability: V (x) 1 (kuk)


497

2 (kyk) , i () 2 K1

26.2.1.2.

Properties

Generally speaking (be careful) the interconnection of dissipative


systems is dissipative!

Important Examples:
The cascade interconnection of two ISS systems is ISS
Passivity Theorem: The negative feedback interconnection of two
Passive systems is Passive
498

(modern version of) The Small Gain Theorem: The negative feedback interconnection of two ISS systems is ISS, if the gains are
small enough
Relationship of (open) dissipative systems with the Lyapunov stability
of closed systems

Dissipativity:

dVi (xi )
dt

si (yi , ui )

Interconnection: u2 = y1 , u1 =
nection

di (xi , ui ) i = 1, 2
y2 Negative Feedback Intercon-

Total Energy: V (x) = V1 (x1 ) + V2 (x2 )


Energy Balance:

dV (x)
dt

s1 (y1 , y2 )+s2 (y2 , y1 ) (d1 (x1 , y2 ) + d2 (x2 , y


499

Internal stability condition: s1 (y1 , y2 )+s2 (y2 , y1 ) d1 (x1 , y2 )+


d2 (x2 , y1 )
26.2.1.3.

Useful for Analysis

Stability analysis of interconnected systems


Robustness Analysis
Small Gain Theorem
Passivity Theorem
Absolute Stability
IQC

etcetera
500

501

26.2.1.4.

Useful for Design: Stabilization by Interconnection

More sophisticated: Decomposition and aggregation!

26.2.2.

Important Special Cases

26.2.2.1.

Special Case: LTI Systems

System
L :

x = Ax + Bu ,
y = Cx ,

x (0) = x0

x 2 Rn ,
y 2 Rm

is state strictly dissipative (SSD) wrt the supply rate


! (y, u) =

y
u

Q S
ST R

502

y
u

u 2 Rq

if there exists a storage function V (x) = xT P x such that


dV (x (t))
! (y (t) , u (t))
dt

xT P x , for some > 0 .

m
L is state strictly dissipative (SSD) wrt the supply rate ! (y, u), or
for short (Q, S, R)-SSD, if there exist a matrix P = P T > 0, and > 0
such that

T
P A + AT P + P , P B
C QC C T S
0.
T
B P
0
ST C
R
Replacing P with I gives an equivalent problem.
The inequality is an LMI in P and .
If m = q, passivity corresponds to the supply rate ! (y, u) = y T u.
503

Kalman-Yakubovich-Popov Lemma: If (A, B) controllable,


and (A, C) observable, then the previous MI (for passivity) is
equivalent to G (s) = C (sI A) 1 B being strictly positive real
(SPR).
26.2.2.2.

Dissipativity: Static Nonlinearity

A time-varying memoryless nonlinearity


y=

: [0, 1) Rq ! Rm ,

(t, u) ,

piecewise continuous in t and locally Lipschitz in u, such that (t, 0) =


0, is said to be dissipative with respect to the supply rate ! (y, u) or for
short (Q, S, R)-D, if for every t 0, and u 2 Rq
! (y, u) = ! ( (t, u) , u) =

Q +2

Su + uT Ru

Generalizes the classical (m = q) concept of a Sector nonlinearity


[28].
504

If is in the sector [K1 , K2 ], i.e. (y K1 u)T (K2 u y) 0,


then it is (Q, S, R)-D, with (Q, S, R) =
I, 12 (K1 + K2 ) , 12 K1T K
If is in the sector [K1 , 1], i.e. (y
is 0, 12 I, 12 K1 + K1T -D.

K1 u)T u

0, then it

Figure 26.1: Nonlinearity in the sector [0, k] or ( 1, k/2, 0-D


A local (or regional) version is also of interest.
505

26.2.2.3.

Feedback Interconnection

Lema 26.1 Consider the feedback interconnection


x = Ax + Bu ,
y = Cx ,
u=
(t, y) .

x (0) = x0

If the linear system (C, A, B) is (Q, S, R)-SSD, then the equilibrium


point x = 0 is globally exponentially stable for every
R, S T , Q -D
nonlinearity.
Proof:
dV
! (y, u)
dt

V = ! (y,

506

V .

507

26.3.

Dissipative Observer Design

26.3.1.

Motivation

The main motivation in [34] was:


Observer design is usually a two step procedure:
System Transformation (immersion) to a "simpler" system
Observer design for the transformed system

The useful "simpler" systems (forms) are usually hard to meet


Simple forms consist usually of a Linear System + Nonlinearity.
The design will be done for the Linear System. If the Nonlinearity
is of special forms (triangular for HG observers, for example), it
will be compensated.
508

The methods are not able to deal with cases where the transformation does not lead to the required form.
The aim of the Dissipative Approach is to provide a systematic
means to deal with cases not necessarily considered in the previous
approaches.
Furthermore, and far beyond this initial motivation, it provides
a unified framework to design observers, to compare their performance, to analyze and improve their robustness, to include dierent objectives in the observer design.
Consider the Nonlinear system
x (t) = f (x (t) , u (t)) , x (t0 ) = x0
y (t) = h (x (t))
x (t) 2 Rn , u (t) 2 Rp , y (t) 2 Rq .

509

Suppose that some transformation (immersion) has been applied to


the system so that it becomes
(t) = A (t) + G ( , , u) + ' (, u) , (t0 ) = 0
(t) = C (t)
(t) = H (t)
where 2 Rr is a linear function of the state.
Here the dissipativity theory will be used to propose a Nonlinear
Observer for the system in the last form.

26.3.2.

Observer Design: A simple case

8
< x = Ax + G ( ) + ' (t, y, u) ,
y = Cx ,
:
:
= Hx ,
510

x 2 Rn ,
y 2 Rm
2 Rr

u 2 Rq

Proposed observer for


8
>
< x = A
x + L (
y
:
y = C x ,
>
: = H x

y) + G ( + N (
y

y)) + ' (t, y, u) ,

Matrices L 2 Rnp , and N 2 Rrp to be designed.


511

26.3.2.1.

Estimation Error Dynamics

Define the errors e , x x, y , y


nonlinearity
(z, ) , ( )
Note that

(0, ) = 0 for all .

512

y, and ,
( + z) .

, and the new

The error dynamics is


8
< e = AL e + G ,
z = HN e ,
:
:
=
(z, ) ,

e (0) = e0

where AL , A + LC, and HN , H + N C.


is the influence of the plants state.
26.3.2.2.

Observer Design

Suposicin 26.2 (z, ) is (Q, S, R)-D for some non positive semidefinite quadratic form
! ( , z) =

Q +2

Sz + z T Rz

0 for all .

Teorema 26.3 Suppose that the Assumption is satisfied. If there are


matrices L and N such that the linear subsystem of is
R, S T , Q SSD, then is a global exponential observer for , i.e. there exist
513

514

constants ,

> 0 such that for all e (0)


ke (t)k ke (0)k exp (

26.3.3.

t) .

Observer Design: An Extended Case

Suposicin 26.4 (z, ) is (Qi , Si , Ri )-D for i = 1, 2, , M .


P
=) is M
for every i 0, i.e. is dissipative
i=1 i (Qi , Si , Ri )-D
PM
wrt the supply rate ! ( , z) = i=1 i !i ( , z).
It is clear that it is necessary that the quadratic forms are independent.
26.3.3.1.

Example of a multivariable nonlinearity

Consider a lower triangular nonlinearity

(x, u) =
1 (x1 , u) ,
n 1 (x1 , , xn 1 , u) ,
515

(x, u)

: Rn Rm
(26.1)

with (0, u) = 0 for all u.


Assume each component is (globally) Lipschitz, uniformly in u (or
for u in a compact set). i.e.
i

xi , u

yi, u

ki xi

yi

where ki > 0 is the Lipschitz constant of

x1

(z, x, u) =

(x, u)

xi =
Defining
the Lipschitz condition on
i

z i , xi , u

xi

, i = 1, , n
i,

and

T
(x + z, u)

implies for each component of phi that


ki z i
516

, i = 1, , n

Considering the Euclidean norm this implies


2
i

(z1 , , zi , x1 , , xi , u) ki2 z12 + + zi2 , i = 1, , n.

These inequalities show that is (Qi , Si , Ri )-dissipative for every i =


1, 2, , n, with (Qi , Si , Ri ) =
bi bTi , 0, ki Ii , where bi are the basis
vectors of Rn , Ii = diag (Ii , 0n i ), and Ip is the identity matrix of dimension p.
Teorema 26.5 Suppose that the assumption is satisfied. If there are
matrices L and N , and a vector = (1 , , M ), i 0, such that the
linear subsystem of is
R , ST , Q -SSD,
(Q , S , R ) =

M
X

i (Qi , Si , Ri ) ,

i=1

then is a global exponential observer for .


517

26.4.
i

Computational Issues

Observer design: find matrices L and N , a vector = (1 , , M ),


0, a matrix P = P T > 0, and > 0 such that the inequality

P AL + ATL P + I + HNT R HN , P G HNT ST


0
G T P S H N
Q

is satisfied.
In general a nonlinear matrix inequality feasibility problem.
If N = 0 it is an LMI in , P , P L, .
If M = 1 and R = 0, then it is an LMI in , P , P L, N .
LMIs can be eectively solved by several algorithms in the literature [11]
518

There is place for optimization, since an feasible LMI has usually


a set of solutions.

26.5.

Relations with other design methods

Circle criterion design (Arcak and Kokotovic 1999)[3, 15]: Corresponds to the simple case with square and monotonic nonlinearities.
Lipschitz observer design (Thau 1973; Rajamani 1998)[42, 51]:
Corresponds to the simple case with nonsquare general nonlinearities, and N = 0.
x = Ax +
y = Cx .

(x, u) ,

(x, u) Lipschitz in x, unif. in u ,


519

x (0) = x0
T

+ zT z

0,

where (z, x, u) = (x, u)


is ( I, 0, I)-dissipative.

(x + z, u), ,

High-Gain observer design [17, 18]: Corresponds to the extended


case with nonsquare triangular nonlinearities, and N = 0.
2
3 2
3
x2
1 (x1 , u)
6 .. 7 6 ..
7
6
7 6
7
x = 6 . 7 + 6 .
7
4 xn 5 4 n 1 (x1 , , xn 1 , u) 5
0
n (x, u)
y = x1 .

(x, u) Lip. ) 2i (z1 , , zi , x1 , , xi ) ki2 (z12 + + zi2 )


, is (Qi , Si , Ri )-dissipative, i = 1, 2, , n.
The proposed method is always applicable when the high-gain
methodology is.
520

Moreover, it represents a generalization of the HG method, and


can deliver a solution when the HG does not.
Since the HG represents only one possible solution, the proposed
method can find better solutions, and is not constrained to highgain ones. Moreover, other optimization and design criteria can
be included to find a better solution.
A simple and immediate generalization of HG is to use the additional injection depending on matrix N .
Since in the proposed method the particular characteristics of the
nonlinearities can be taken into account using several supply rates,
and not only the triangular and Lipschitzness characteristics used
by the HG method, it is expected that the system class for which
this method is applicable is much bigger, the conservativeness of
the results is reduced, and the quality of the results increased.
521

26.6.

Examples

26.6.1.

Example 1
8
< x 1 = x1 + x2 + g (x2 ) ,
x 2 = ax2 ,
:
:
y = x1 ,

with g (x2 ) = x2 (x22 2).


The 2-observability map for this system is
y = x1 ,
y = y + x32
522

x2 ,

that is not injective.


However, for a 6= 0 the 3-observability map is injective.
There is no High-Gain Observer (of dimension 2), since the plant
is not 2-observable.
There is no Lipschitz observer since g (x2 ) is not Lipschitz.
There is no circle criterion observer since g (x2 ) is not monotonic.
But there is a dissipative observer for a > 0, with N 6= 0.

523

524

525

Figure 26.2: Simulations with small deviations of x2


526

Figure 26.3: Simulations with large deviations of x2


527

Figure 26.4: Simulations with large deviations of x2


528

Figure 26.5: Simulations with small deviations of x2 : Problematic


529

26.6.1.1.

NL Sector

26.6.1.2.

Observer for a > 0

26.6.1.3.

Observer for a < 0: Dissipativity not completely


satisfied

26.6.2.

Example 2

Consider the system


x 1 = x2 x1 u ,
x 2 =
x1 x2 x21
y = x1 ,

x22

x32 + x1 x2 u , > 0 ,

Exact error linearization is not possible (because of the cubic term).


Decomposing the system as

x2
x1
0
x =
+
u+
, y = x1 ,
x1 x2 x21 x22
x1 x2
x32
530

After the state and an output transformations

exp (x1 ) 1
y = exp (y) 1 , z =
exp (x1 ) (x2 + 1)

the system has the approximate observer form

0 1
y u (
y + 1) ln |
y + 1|
z =
z+
0 0
ln |
y + 1| + u)
"
#y + 1| (1 + y) (1 + ln |
0
+
,

(
y z2 )3
(1+
y )2
y = z1 .
The nonlinearity is
(
y
)3
( , y) =
, sigma = z2 .
(1 + y)2
531

2
2
!
( , , y) = Q + 2S + R

0, 1, 2(1+
.
y )2

0 for all

with (Q, S, R) =

so that
For y bounded there is a minimum value of R
dissipative.

is 0, 1, R

l1 = 3R,
l2 = 2R
2 the conditions are satisfied.
For N = 2R,
This observer is not global, because z1 has to be bounded, but
there is no restriction on z2 , and u.

26.6.3.

Example 3
x 1 = g (x2 ) u , g (x2 ) gl. Lipschitz
x 2 = x1 x2
y = x1 ,
532

System is not observable for every input, since for u = 0 it is detectable


but not observable.
The nonlinearity of the error equation is
(, , u) = + (g ( )

g ( + )) u ,

= x2

is dissipative for (Q, S, R) = ( 1, 0, k 2 ).


N = 0, l1 = (k + 1), l2 = 2 is a global observer for bounded
inputs, despite of the fact that the system is not observable.

26.7.

Conclusions and Perspective

26.7.1.

Conclusions

Proposed observer design generalizes and unifies several standard


design methods.
533

It is based on the dissipativity theory.


It eliminates several restrictions: Lipschitz, monotonic and square
nonlinearities; observability of the system; High Gain...
It opens new design possibilities. For example, using the design
degrees of freedom for optimization.
It is computable.
It can be generalized to more general class of nonlinear systems
(at cost of the computability).

26.7.2.

Perspective: A more general version of the


Dissipative Observer basic idea

Decompose the observation error dynamics in two (or more) interconnected subsystems.
534

The Output injection will be used to provide (if possible) complementary dissipative.

535

536

Bibliografa
[1] V. Andrieu and L. Praly. Remarks on the existence of a KazantzisKravaris/Luenberger observer. In Proceedings of the 43rd IEEE
Conference on Decision and Control, pages 38743879. IEEE, Dec.
14-17 2004.
[2] D. Angeli and E. Sontag, Forward completeness, unboundedness
observability, and their lyapunov characterizations, Sys. & Cont.
Lett., 38, pp. 209217, 1999.
537

[3] M. Arcak and P. Kokotovic. Nonlinear observers: A circle criterion design. In Proceedings of the 38th. Conference on Decision &
Control, pages 48724876, Phoenix, Arizona, USA, 1999. IEEE.
[4] M. Arcak, Certainty-equivalence output-feedback design with
circle-criterion observers, IEEE Trans. Aut. Con., 50, no. 6, pp.
905909, 2005.
[5] M. Arcak and P. Kokotovic, Nonlinear observers: a circle criterion
design and robustness analysis, Automatica, vol. 37, no. 12, pp.
19231930, 2001.
[6] A. Atassi and H. Khalil, A separation principle for the
stabilization of a class of nonlinear systems, IEEE Trans. Aut.
Con., 44, pp. 16721687, 1999.

538

[7] , Separation results for the stabilization of nonlinear systems


using dierent high-gain observer designs, Syst. Control Lett.,
vol. 39, pp. 183191, 2000.
[8] A. Banaszuk and W. Sluis. On nonlinear observers with
approximately linear error dynamics. In Proc. of the American
Control Conference, pages 34603464. IEEE, 1997.
[9] D. Bestle and M. Zeitz. Canonical form observer design for
non-linear time-variable systems. Int. J. Control, 38:419431,
1983.
[10] S. Boyd and L. Vandenberghe. Convex Optimization. Cambridge
University Press, Cambridg, UK, 2004.
[11] S.P. Boyd, L. El Ghaoui, E. Feron, and V. Balakrishnan.
Linear Matrix Inequalities in System and Control Theory. SIAM,
Philadelphia, 1994.
539

[12] Coron, Jean-Michel. Control and Nonlinearity. Mathematical


Surveys and Monographs, Vol. 136. Rhode-Island, American
Mathematical Society, 2007.
[13] C. Desoer and M. Vidyasagar, Feedback systems: Input-Output
properties. New York: Academic Press, 1975.
[14] L. El Ghaoui and S. Niculescu, Advances in Linear Matrix
Inequality Methods in Control. Phil., SIAM, 1999.
[15] X. Fan and M. Arcak, Observer design for systems with
multivariable monotone nonlinearities, Sys. & Cont. Lett., 50, pp.
319330, 2003.
[16] J.-P. Gauthier and G. Bornard, Observability for any u(t) of
a class of nonlinear systems, IEEE Trans. Aut. Cont., 26, pp.
922926, 1981.
540

[17] J.-P. Gauthier, H. Hammouri, and S. Othman. A simple observer


for nonlinear systems. Applications to bioreactors. IEEE Trans.
Automatic Control, 37:875880, 1992.
[18] J.-P. Gauthier and I. Kupka, Deterministic Observation Theory
and Applications. Cambridge, UK: Cambridge University Press,
2001.
[19] M. Guay. Observer linearization by output-dependent time-scale
transformations. IEEE Trans. Automatic Control, 47(10):1730
1735, 2002.
[20] A. Glumineau and V. Lopez-M. Transformation to state ane
system and observer design. In Nijmeijer and Fossen [36], pages
5971.

541

[21] L. Grne, E.D. Sontag, F.R. Wirth. Asymptotic stability equals


exponencial stability, and ISS equals finite energy gain - if you
twist your eyes. Systems & Control Letters 38 (1999): 127-134.
[22] R. Hermann and A.J. Krener. Nonlinear controllability and
observability. IEEE Trans. Automatic Control, 22:728740, 1977.
[23] D. Hill and P. Moylan, Dissipative dynamical systems: Basic
input-output and state properties, J. of the Franklin Inst., 309,
pp. 327357, 1980.
[24] A. Isidori. Nonlinear Control Systems. 3rd. edition. London,
Springer, 1995.
[25] P. Jouan. Immersion of nonlinear systems into linear systems
modulo output injection. SIAM J. Control and Optimization,
41(6):17561778, 2003.
542

[26] N. Kazantzis and C. Kravaris. Nonlinear observer design using


Lyapunovs auxiliary theorem. Systems & Control Letters,
34:241247, 1998.
[27] H. Khalil, High-gain observers in nonlinear feedback control, in
New Directions in Nonlinear Observer Design, ser. Lecture notes
in control and information sciences, H. Nijmeijer and T. Fossen,
Eds. London: SpringerVerlag, 1999, no. 244, pp. 249268.
[28] H. Khalil, Nonlinear Systems, 3rd ed. Upsaddle River, New Jersey:
PrenticeHall, 2002.
[29] A.J. Krener and A. Isidori. Linearization by output injection and
nonlinear observers. Syst. Control Lett., 3:4752, 1983.
[30] A.J. Krener and W. Respondek. Nonlinear observers with linear
error dynamics. SIAM J. Control and Optimization, 23:197216,
1985.
543

[31] J. Levine and R. Marino. Nonlinear system immersion, observers


and finite dimensional filters. Syst. Control Lett., 7:133142, 1986.
[32] A. Lynch and S. Borto. Nonlinear observers with approximated
linear error dynamics: the multivariable case. IEEE Trans.
Automatic Control, 46(6):927932, 2001.
[33] R. Marino and P. Tomei. Nonlinear Control Design; Geometric,
Adaptive & Robust. Prentice Hall, London, 1995.
[34] J. A. Moreno. Observer design for nonlinear systems: A dissipative
approach. In Proceedings of the 2nd IFAC Symposium on System,
Structure and Control SSSC2004, pages 735740, Oaxaca, Mexico,
Dec. 8-10, 2004, 2004. IFAC.
[35] S. Nicosia, P. Tomei, and A. Tornamb. A nonlinear observer
for elastic robots. IEEE Journal of Robotics and Automation,
4(1):4552, February 1988.
544

[36] H. Nijmeijer and T.I. Fossen, editors. New Directions in Nonlinear


Observer Design. Number 244 in Lecture notes in control and
information sciences. SpringerVerlag, London, 1999.
[37] H. Nijmeijer and A. van der Schaft. Nonlinear Dynamical Control
Systems. SpringerVerlag, New York, 1990.
[38] A.R. Phelps. On constructing nonlinear observers. SIAM J.
Control Optimization, 29:516534, 1991.
[39] Alexander Pogromsky and Henk Nijmeijer. Observer-based robust
synchronization of dynamical systems. International Journal of
Bifurcations and Chaos, 8(11):22432255, 1998.
[40] Praly, L.; dAndrea-Novel, B. and Coron, J.-M. Lyapunov Design
of Stabilizing Controllers for Cascaded Systems, IEEE Trans.
Aut. Cont., 36, No. 10, pp. 11771181, 1991.
545

[41] L. Praly and M. Arcak, A relaxed condition for stability of


nonlinear observer-based controllers, Sys. & Cont. Lett., 53, pp.
311320, 2004.
[42] R. Rajamani, Observers for Lipschitz nonlinear systems, IEEE
Trans. Aut. Cont., 43, pp. 397401, 1998.
[43] W. Respondek, H. Nijmeijer, and P. Gromoski. Observer
linearization by output-dependent time-scaling transformation. In
5th IFAC Symposium Nonlinear Control Systems (NOLCOS),
Saint Petersburg, Russia, July 2001.
[44] J. Schaner and M. Zeitz. Variants of nonlinear normal form
observer design. In Nijmeijer and Fossen [36], pages 161180.
[45] E. Sontag and M. Krichman, An example of a gas system which
can be destabilized by an integrable perturbation, IEEE Trans.
Aut. Cont., 48, pp. 10461049, 2003.
546

[46] Sontag, Eduardo. Mathematical Control Theory; Deterministic


Finite-Dimensional Systems. 2nd. Edition. Texts in Applied
Mathematics, vol. 6. New York, Springer-Verlag, 1998.
[47] J.A.K. Suykens, P.F. Curran, J. Vandewalle, and L.O. Chua.
Robust nonlinear H1 synchronization of chaotic lure systems.
IEEE Trans. on Circuits and SystemsI: Fundamental theory and
applications, 44(10):891904, 1997.
[48] A. Teel and L. Praly, Semi-global stabilizability by output
feedback, Syst.& Cont. Lett., 22, pp. 313325, 1994.
[49] , Tools for semiglobal stabilization by partial state feedback
and output feedback, SIAM J. Cont. Opt., 33, pp. 14431488,
1995.

547

[50] A. Teel and J. Hespanha, Examples of ges systems that can


be driven to infinity by arbitrarily small additive decaying
exponentials, IEEE Trans. Aut. Cont., 49, pp. 14071410, 2004.
[51] F. Thau, Observing the state of nonlinear dynamic systems, Int.
J. Control, vol. 17, pp. 471479, 1973.
[52] A. Van der Schaft, L2 -Gain and Passivity Techniques in Nonlinear
Control, 2nd ed. London: Springer-Verlag, 2000.
[53] M. Vidyasagar, Nonlinear Systems Analysis, 2nd ed.
Clis: PrenticeHall, 1993.

Englewood

[54] J.C. Willems. Dissipative dynamical systems, part I: General


theory. Archive for Rational Mechanics and Analysis, 45:321351,
1972.
548

[55] J.C. Willems. Dissipative dynamical systems, part II: Linear


systems with quadratic supply rates. Archive for Rational
Mechanics and Analysis, 45:352393, 1972.
[56] J. Willems, Dissipative dynamical systems, part I: General theory.
Part II: Linear systems with quadratic supply rates, Archive
for Rational Mechanics and Analysis, vol. 45, pp. 321351, and
352393, 1972.
[57] X. Xia and W. Gao. Nonlinear observer design by observer
error linearization. SIAM Journal of Control and Optimization,
27(1):199216, 1989.
[58] X. Xia and M. Zeitz. On nonlinear continuous observers. Int. J.
Control, 66(6):943954, 1997.
[59] M. Zeitz. The extended Luenberger observer for nonlinear systems.
Syst. Control Lett., 9:149156, 1987.
549

[60] M. Zeitz. Canonical normal forms for nonlinear systems. In


A. Isidori, editor, Nonlinear Control Systems Design - Selected
Papers from IFAC-Symposium, pages 3338. Pergamon Press,
Oxford, 1989.

550

También podría gustarte