Está en la página 1de 480

Apuntes de Regulaci

on Autom
atica

Ingeniera Electr
onica
Javier Aracil
Fabio Gomez-Estern

Contenido

1 Introducci
on a los sistemas de control.

1.1

Nocion de control automatico. . . . . . . . . . . . . . . . . . . . .

1.2

Necesidad del modelo matematico del sistema. . . . . . . . . . . .

1.3

Idea de realimentacion. . . . . . . . . . . . . . . . . . . . . . . . .

1.4

Realimentacion, retardos y oscilacion. . . . . . . . . . . . . . . . .

1.5

Sensibilidad y realimentacion. . . . . . . . . . . . . . . . . . . . .

1.6

Las Matematicas y el control automatico. . . . . . . . . . . . . . .

1.7

Se
nales y sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . .

11

1.8

Servomecanismos y reguladores. . . . . . . . . . . . . . . . . . . .

13

1.9

Bosquejo historico del control automatico. . . . . . . . . . . . . .

15

1.9.1

17

Control, informatica y telecomunicaciones. . . . . . . . . .

2 Introducci
on a los sistemas realimentados

19

2.1

Servomecanismo de posicion . . . . . . . . . . . . . . . . . . . . .

19

2.2

Accion proporcional mas derivada (PD). . . . . . . . . . . . . . .

21

2.3

Accion proporcional mas integral (PI). . . . . . . . . . . . . . . .

22

Contenido

ii

3 Sistemas din
amicos lineales
3.1

28

Transformacion de Laplace . . . . . . . . . . . . . . . . . . . . . .

28

3.1.1

Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . .

28

3.1.2

Resumen de Propiedades . . . . . . . . . . . . . . . . . . .

29

3.1.3

Calculo de antitransformadas . . . . . . . . . . . . . . . .

33

3.2

Nocion de sistema dinamico. . . . . . . . . . . . . . . . . . . . . .

38

3.3

Formas de las relaciones entrada-salida en sistemas. . . . . . . . .

39

3.3.1

Sistemas estaticos. . . . . . . . . . . . . . . . . . . . . . .

39

3.3.2

Sistemas dinamicos . . . . . . . . . . . . . . . . . . . . . .

40

Descripcion externa de los sistemas dinamicos. . . . . . . . . . . .

42

3.4.1

Respuesta impulsional. . . . . . . . . . . . . . . . . . . . .

42

3.4.2

Funcion de transferencia. . . . . . . . . . . . . . . . . . . .

44

Sistemas de control realimentados . . . . . . . . . . . . . . . . . .

46

3.4

3.5

4 Interpretaciones de la funci
on de transferencia

50

4.1

Transformacion de Fourier . . . . . . . . . . . . . . . . . . . . . .

50

4.2

Funcion de transferencia en el dominio de la frecuencia . . . . . .

54

5 Sistemas din
amicos lineales de primer orden

56

5.1

Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

5.2

Solucion de la ecuacion diferencial de primer orden . . . . . . . .

57

5.2.1

Se
nal de entrada nula . . . . . . . . . . . . . . . . . . . . .

57

5.2.2

Se
nal de entrada no nula . . . . . . . . . . . . . . . . . . .

59

5.2.3

Respuestas a se
nales de entrada especiales . . . . . . . . .

61

Contenido
5.2.4

iii
Respuesta armonica . . . . . . . . . . . . . . . . . . . . . .

69

5.3

Ejemplos de sistemas de primer orden

. . . . . . . . . . . . . . .

72

5.4

El sistema de primer orden como integrador . . . . . . . . . . . .

77

6 Sistemas din
amicos lineales de segundo orden y de orden y superior
79
6.1

Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1

Respuesta de un sistema de segundo orden a una entrada


en escalon . . . . . . . . . . . . . . . . . . . . . . . . . . .

82

6.1.2

Respuesta en frecuencia de un sistema de segundo orden .

91

6.1.3

Ecuaciones diferenciales de orden n . . . . . . . . . . . . .

92

7 Representaci
on gr
afica de la funci
on de transferencia
7.1

7.2

7.3

79

98

Diagramas mas comunes . . . . . . . . . . . . . . . . . . . . . . .

98

7.1.1

Diagrama de polos y ceros: caso racional . . . . . . . . . .

98

7.1.2

Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . .

99

7.1.3

Diagrama logartmico o de Bode . . . . . . . . . . . . . . . 100

7.1.4

Diagrama de Black . . . . . . . . . . . . . . . . . . . . . . 101

Diagrama de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 101


7.2.1

Diagrama de Bode de una constante . . . . . . . . . . . . 103

7.2.2

Diagrama de Bode de una integracion pura . . . . . . . . . 103

7.2.3

Diagrama de Bode de un sistema de primer orden . . . . . 103

7.2.4

Diagrama de Bode de una diferenciacion pura . . . . . . . 105

7.2.5

Diagrama de Bode del termino asociado a un cero . . . . . 106

Sistemas de fase mnima . . . . . . . . . . . . . . . . . . . . . . . 106

Contenido

iv

7.4

Crculos M y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

7.5

Relacion entre las constantes de error y los polos y ceros. . . . . . 112


7.5.1

Seguimiento de posicion. . . . . . . . . . . . . . . . . . . . 113

7.5.2

Seguimiento de velocidad. . . . . . . . . . . . . . . . . . . 116

7.5.3

Seguimiento de aceleracion . . . . . . . . . . . . . . . . . . 118

7.5.4

Sistemas con error nulo . . . . . . . . . . . . . . . . . . . . 119

8 Estabilidad de los sistemas din


amicos

122

8.1

Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

8.2

Criterios de estabilidad relativos a la descripcion externa . . . . . 123

8.3

8.2.1

Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . 128

8.2.2

Matriz de Hurwitz . . . . . . . . . . . . . . . . . . . . . . 133

Criterio de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . 134


8.3.1

Grado de estabilidad e interpretacion del criterio de Nyquist 141

9 Compensaci
on de sistemas realimentados

143

9.1

Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

9.2

Analisis en el dominio de la frecuencia de la red PD . . . . . . . . 147

9.3

Analisis en el dominio de la frecuencia de la red PI . . . . . . . . 150

9.4

Accion proporcional, integral y diferencial (PID) . . . . . . . . . . 153

9.5

Compensacion por avance de fase . . . . . . . . . . . . . . . . . . 155

9.6

Efecto en el dominio de la frecuencia . . . . . . . . . . . . . . . . 157

9.7

Metodo practico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

Contenido

10 Representaci
on matem
atica de sistemas
10.1 Introduccion

162

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

10.1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . 162


10.2 Descripcion interna de los sistemas dinamicos . . . . . . . . . . . 163
10.2.1 Sistemas de estados finitos . . . . . . . . . . . . . . . . . . 166
10.2.2 Sistemas dinamicos lineales en tiempo continuo . . . . . . 167
10.2.3 Funcion de transicion de los sistemas dinamicos lineales . . 177
10.2.4 Sistemas dinamicos lineales en tiempo discreto . . . . . . . 181
10.2.5 Muestreo de sistemas en tiempo contnuo . . . . . . . . . . 182
10.2.6 Sistemas no-lineales: linealizacion . . . . . . . . . . . . . . 185
10.2.7 Deposito mezclador

. . . . . . . . . . . . . . . . . . . . . 187

11 Controlabilidad y observabilidad de sistemas din


amicos

191

11.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191


11.2 Controlabilidad de sistemas dinamicos lineales . . . . . . . . . . . 192
11.2.1 Estados alcanzables . . . . . . . . . . . . . . . . . . . . . . 192
11.2.2 Estados controlables . . . . . . . . . . . . . . . . . . . . . 193
11.2.3 Estados conectados . . . . . . . . . . . . . . . . . . . . . . 194
11.3 Controlabilidad de los sistemas en tiempo discreto . . . . . . . . . 195
11.3.1 Ejemplos de introduccion . . . . . . . . . . . . . . . . . . . 196
11.3.2 Controlabilidad de sistemas en tiempo continuo . . . . . . 202
11.3.3 Criterio de controlabilidad . . . . . . . . . . . . . . . . . . 203
11.3.4 Ejemplos de controlabilidad . . . . . . . . . . . . . . . . . 206

Contenido

vi

11.4 Notas sobre controlabilidad . . . . . . . . . . . . . . . . . . . . . 209


11.4.1 Controlabilidad de sistemas monovariables . . . . . . . . . 209
11.4.2 Transformacion de la matriz de Controlabilidad . . . . . . 210
11.4.3 Forma simplificada del criterio de controlabilidad . . . . . 210
11.4.4 La controlabilidad como propiedad generica . . . . . . . . 211
11.5 Descomposicion del espacio de estados en sus partes controlables
y no controlables . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
11.6 Observabilidad de sistemas dinamicos lineales . . . . . . . . . . . 218
11.6.1 Introduccion a la observabilidad . . . . . . . . . . . . . . . 218
11.6.2 Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . 220
11.6.3 Reconstructibilidad . . . . . . . . . . . . . . . . . . . . . . 221
11.6.4 Criterio de observabilidad . . . . . . . . . . . . . . . . . . 221
11.7 Sistemas continuos . . . . . . . . . . . . . . . . . . . . . . . . . . 223
11.8 Perdida de observabilidad por muestreo . . . . . . . . . . . . . . . 225
11.8.1 Notas sobre observabilidad . . . . . . . . . . . . . . . . . . 227
11.9 Descomposicion del espacio de estados en sus partes observables y
no-observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
11.10Descomposicion canonica del espacio de estados . . . . . . . . . . 229
11.11Formas canonicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
11.11.1 Forma canonica de observacion . . . . . . . . . . . . . . . 239
12 Sntesis de sistemas de control por variables de estado

242

12.1 Ley de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242


12.1.1 Interpretacion por diagramas . . . . . . . . . . . . . . . . 245

Contenido

vii

12.1.2 Interpretacion algebraica . . . . . . . . . . . . . . . . . . . 246


12.1.3 Determinacion de la ley de control

. . . . . . . . . . . . . 248

12.2 Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251


12.2.1 Sistemas monovariables . . . . . . . . . . . . . . . . . . . . 252
12.3 Sntesis del sistema en bucle cerrado . . . . . . . . . . . . . . . . 262
12.3.1 Metodo practico de sntesis

. . . . . . . . . . . . . . . . . 270

12.3.2 Sntesis algebraica directa (Sntesis externa directa) . . . . 275


13 Sistemas no lineales

283

13.1 Metodo del primer armonico . . . . . . . . . . . . . . . . . . . . . 283


13.1.1 Ejemplo introductorio . . . . . . . . . . . . . . . . . . . . 283
13.1.2 Principios del metodo

. . . . . . . . . . . . . . . . . . . . 289

13.1.3 Transformacion de Fourier . . . . . . . . . . . . . . . . . . 289


13.2 Algunas funciones descriptivas . . . . . . . . . . . . . . . . . . . . 291
13.2.1 Saturacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
13.2.2 Rele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
13.2.3 Holgura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
13.2.4 Determinacion experimental de la funcion descriptiva . . . 297
13.3 Analisis de sistemas no lineales mediante la funcion descriptiva . . 298
13.3.1 Una ampliacion del criterio de Nyquist . . . . . . . . . . . 299
13.3.2 Oscilaciones de un servomecanismo no lineal . . . . . . . . 300
13.3.3 Funcion descriptiva independiente de la frecuencia . . . . . 302
13.3.4 Funcion descriptiva dependiente de la frecuencia . . . . . . 302

Contenido

viii

13.3.5 Estabilidad de los ciclos lmite . . . . . . . . . . . . . . . . 304


13.3.6 Fiabilidad del analisis mediante funciones descriptivas . . . 309
13.4 Criterios de estabilidad relativos a la descripcion interna . . . . . 311
13.4.1 Teora de Lyapunov . . . . . . . . . . . . . . . . . . . . . . 311
13.4.2 Un ejemplo introductorio . . . . . . . . . . . . . . . . . . . 311
13.4.3 Nocion de estabilidad en el sentido de Lyapunov . . . . . . 314
13.4.4 Teorema de Lyapunov . . . . . . . . . . . . . . . . . . . . 315
13.4.5 Aplicacion del metodo de Lyapunov a sistemas lineales . . 318
13.5 Construccion de funciones de Lyapunov con formas cuadraticas . 323
13.5.1 Metodo de Krasovkii . . . . . . . . . . . . . . . . . . . . . 327
14 Introducci
on a la optimizaci
on de sistemas din
amicos

331

14.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331


14.2 Optimizacion Estatica. . . . . . . . . . . . . . . . . . . . . . . . . 332
14.2.1 Minimizacion de funciones . . . . . . . . . . . . . . . . . . 332
14.3 Introduccion al control optimo . . . . . . . . . . . . . . . . . . . . 336
14.3.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
14.3.2 Ejemplo de ndice de funcionamiento cuadratico . . . . . . 341
14.4 Problema general del control optimo . . . . . . . . . . . . . . . . 345
14.5 Calculo de variaciones . . . . . . . . . . . . . . . . . . . . . . . . 346
14.5.1 Funcionales y sus variaciones . . . . . . . . . . . . . . . . . 346
14.5.2 Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . 352
14.5.3 Estado final variable . . . . . . . . . . . . . . . . . . . . . 359

Contenido

ix

15 M
etodos Variacionales en Control Optimo

368

15.1 Aplicacion del calculo de variaciones a la resolucion del problema


del Control Optimo . . . . . . . . . . . . . . . . . . . . . . . . . . 368
15.1.1 Se puede eliminar u . . . . . . . . . . . . . . . . . . . . . . 368
15.1.2 No se puede eliminar u

. . . . . . . . . . . . . . . . . . . 373

15.1.3 Introduccion de un termino de control terminal . . . . . . 382


16 Principio del Mnimo de Pontriagin

393

16.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393


16.2 Control optimo por conmutacion . . . . . . . . . . . . . . . . . . 408
16.2.1 Control en tiempo mnimo de un sistema de segundo orden 408
16.2.2 Ejemplo 4: Problema del alunizaje suave . . . . . . . . . . 412
17 Principio de optimalidad de Bellman

417

17.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417


17.1.1 Ejemplo de un sistema binario en tiempo discreto . . . . . 421
17.1.2 Programacion dinamica en tiempo discreto y Principio de
Optimalidad . . . . . . . . . . . . . . . . . . . . . . . . . . 423
17.2 Programacion dinamica y ecuacion de Hamilton-Jacobi-Bellman . 424
17.2.1 Relacion entre la programacion dinamica y la formulacion
Hamiltoniana del problema de control optimo . . . . . . . 433
17.3 Control de sistemas dinamicos lineales con criterio cuadratico . . . 434
17.3.1 Breve rese
na historica . . . . . . . . . . . . . . . . . . . . 434
17.3.2 Problema LQR . . . . . . . . . . . . . . . . . . . . . . . . 436
17.4 Ecuacion de Riccati en el dominio de la frecuencia . . . . . . . . . 446

Contenido

17.5 Resolucion del problema LQR . . . . . . . . . . . . . . . . . . . . 450


18 Estimaci
on del estado

452

18.1 Nocion de se
nal aleatoria . . . . . . . . . . . . . . . . . . . . . . . 452
18.1.1 Descripcion estadstica de las se
nales aleatorias . . . . . . 453
18.2 Transmision de se
nales aleatorias a traves de sistemas lineales: descripcion interna . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
18.3 El problema de la observacion: Filtro de Kalman . . . . . . . . . 458
18.3.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
18.4 Metodo LQG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466

Tema 1
Introducci
on a los sistemas de
control.
1.1

Noci
on de control autom
atico.

De una manera intuitiva se concibe el control automatico, como la rama de la


tecnica que tiene por objeto concebir ingenios que funcionen autonomamente, es
decir, y hablando llanamente, que funcionen solos. Esta nocion intuitiva requiere
unas ciertas matizaciones, pero es valida como punto de partida.
Bajo cierto punto de vista se puede considerar que en todo proceso industrial
intervienen por una parte la informacion (ordenes) y por otra la potencia. Bajo
este mismo punto de vista cabe considerar el funcionamiento de un proceso como
la adopcion de las acciones necesarias frente al mismo (se
nales de mando o control)
para la conveniente dosificacion de la energa en los distintos puntos del proceso
para que el funcionamiento del conjunto sea el conveniente.
En todo proceso, sea la fabricacion de un producto, un avion en vuelo, una
maquina funcionando, etc.., se realizan una serie de acciones que presuponen
la dosificacion de la aplicacion de energa en determinados puntos, bien bajo la
accion de unas ordenes que se suministran al mismo, bien de una manera aleatoria
por parte del medio en el que se halla inmerso.
Se puede representar un proceso de esta naturaleza, al que a partir de ahora
denominaremos sistema por medio de un bloque, o rectangulo, tal como el representado en la figura 1.1. A la izquierda de este bloque se han representado unas
1

Introduccion a los sistemas de control.

flechas que se han denotado por u1 , u2 ... y que representan las distintas acciones
que se pueden ejercer sobre el proceso; se denominaran en lo que sigue se
nales
de control, mando, o entrada. A la derecha del bloque se han representado otras
flechas, como saliendo del mismo, que se han denotado por y1 , y2 , ... y que representan los productos que produce el proceso. Tanto las acciones sobre el sistema
como los productos del mismo generalmente varan con el tiempo, por lo que se
hablara de secuencias temporales, o mas formalmente de se
nales; sobre el caracter
de estas se
nales se volvera mas adelante.

u1
u2

un

q
q
q

Sistema
a
controlar

y1

y2

ym

q
q
q

Figura 1.1: Sistema dinamico


Observese que este esquema, al nivel que se ha desarrollado hasta ahora,
tiene una amplsima aplicacion. Por ejemplo la conduccion de un automovil
por una carretera puede considerarse como un proceso sistema representado con
un diagrama similar al de la figura 1.1 siendo u1 la posicion del volante; u2 la
direccion del viento respecto a la del automovil, etc.., y siendo y1 la velocidad del
automovil; y2 la separacion del mismo de la cuneta, etc.
De una manera intuitiva se entiende que un proceso esta automatizado cuando
funciona solo, es decir, sin intervencion del ser humano. Por ejemplo, un automovil completamente automatizado sera aquel que funcionase completamente
solo. Aunque este ejemplo trivial pueda asociarse al dominio de la ciencia ficcion,
recientes avances en disciplinas como la la vision artificial y el aprendizaje automatico, auguran su inminente viabilidad tecnica.
Volviendo al problema original, se puede decir que el funcionamiento del proceso se hara a partir de la serie de se
nales ui que se le aplique. El problema de
controlar (gobernar) el proceso, se reduce al de establecer las se
nales de entrada
(ordenes), a que debera ser sometido para que su funcionamiento sea el apetecido.
Por lo tanto, el problema de controlar el funcionamiento de un proceso queda
reducido al de la toma de decision de la secuencia temporal de valores que deben

Introduccion a los sistemas de control.

tomar las se
nales de mando del mismo. Es decir, volviendo al ejemplo trivial
de la conduccion del automovil, la decision de las maniobras que debe efectuar
el conductor (sobre el volante, sobre el freno, sobre el acelerador...) para que el
funcionamiento del automovil sea el adecuado.

1.2

Necesidad del modelo matem


atico del sistema.

Se ha visto en el apartado anterior como el gobierno de un proceso se reduca


al establecimiento de la secuencia de acciones de mando que debe aplicarsele
para que el funcionamiento sea el apetecido. Se va a considerar ahora un primer
aspecto del establecimiento de esta secuencia.
La toma de decision sobre la se
nal que debe aplicarse al sistema implica que
existan distintas alternativas. Es decir, que existan distintas acciones posibles
cada una de las cuales dara un resultado distinto. El problema se reduce al de
elegir entre estas se
nales, aquellas cuyo resultado sea el apetecido.
Al existir distintas opciones respecto a la accion a tomar para gobernar el
proceso, para realizar la eleccion conveniente de la se
nal de entrada que determine
un funcionamiento apetecido, es necesario que se sepa predecir que resultados se
obtendra de cada una de las posibles acciones. Es decir, quien tome la decision
respecto a cual de las posibles acciones a tomar debe adoptarse, debe predecir in
mente, las acciones que resultaran de cada una de sus posibles opciones, con el
fin de escoger aquella se
nal de entrada a la que corresponda un resultado que sea
el buscado.
Por lo tanto, se requiere el conocimiento exhaustivo de las relaciones que
existen entre las posibles acciones a tomar sobre el sistema, y los resultados que
determinaran cada una de ellas. Esto es lo que se llama un modelo del proceso;
aunque existen diversos tipos de modelos, (descripciones verbales, prototipos,
tablas), nos interesamos en texto por los matematicos, que estan constituidos por
las relaciones formales que ligan a las se
nales ui e yi .
El conductor del automovil, que es quien toma la decision del posicionamiento
de los distintos organos que tiene a su alcance (volante, frenos, acelerador...) lo
que hace en todo instante es prever cual sera el resultado de las decisiones tomadas
con el fin de mantener el proceso que gobierna (el automovil), en un estado de
marcha y funcionamiento apetecido.

Introduccion a los sistemas de control.

Para construir un modelo matematico de un proceso, se requiere establecer de


una forma precisa, las magnitudes que lo definen (se
nales de entrada y de salida)
as como las relaciones formales que ligan a estas magnitudes.
En la vida ordinaria, cuando se construyen modelos, de una manera subconsciente, para la toma de decisiones, estos no tienen el nivel de formalidad que se
acaba de indicar. Sin embargo, cuando se quiere automatizar un proceso, es indispensable la construccion de estos modelos formales con el fin de poder trasladar
el proceso de toma de decision a una maquina construida al efecto, as que determinara las acciones a tomar precisamente a partir del modelo del sistema del
que disponga.
La posibilidad de construir un modelo del proceso que se este considerando,
constituye una de las mayores limitaciones a priori respecto a la posibilidad de
automatizar un determinado proceso. Considerese, por ejemplo, el problema del
establecimiento de un tratamiento por un medico para uno de sus enfermos. En
la medida en que fuese posible en primer lugar definir una serie de magnitudes
que caracterizasen el estado del enfermo (temperatura, tension arterial, concentraciones en sangre de principios activos...) y de las relaciones formales que ligan
a estas magnitudes, sera posible automatizar completamente el problema del establecimiento de un tratamiento, que no es sino determinar la accion a seguir
sobre el enfermo para conseguir que la evolucion del mismo estado de salud se
realice en forma apetecida.
En ciertos casos es posible establecer un modelo matematico del proceso que
ligue de una manera unvoca a cada una de las acciones que se tomen un u
nico
resultado. Se tiene entonces un sistema determinista. En otros casos, para cada
una de las acciones posibles, no se tiene sino una prediccion estadstica de posibles
resultados; se tienen entonces los llamados sistemas estoc
asticos.

1.3

Idea de realimentaci
on.

El conocimiento del modelo matematico del sistema sobre el que se debe tomar
una decision para gobernar su funcionamiento, no es suficiente para la toma de
esta decision. Se requiere ademas informacion sobre lo que, de una forma intuitiva
de momento se puede denominar estado actual del mismo.
Es facil encontrar ejemplos que ilustren este punto. Supongase, por ejemplo,
un automovil que debe hacer el recorrido Sevilla - Cadiz. Supongase que se
dispone de un modelo matematico del funcionamiento del automovil as como

Introduccion a los sistemas de control.

un trazado minucioso de la autopista que une las dos ciudades Parece posible,
en principio, concebir un programa de ordenador extraordinariamente detallado
que permitiese realizar la toma de decisiones sobre la conduccion del automovil.
Un programa que sera algo as como una secuencia de instrucciones del tipo:
avanzar en lnea recta 150 m, realizar un giro a la derecha, con radio de giro de
1 km.,.... Sin embargo parece claro que en principio no quepa augurar un feliz
resultado a la empresa. Este tipo de programa dara lugar a un control en en
el que no se tiene informacion externa sobre la situacion actual, situacion que
recibe el la denominacion de se denomina control en bucle abierto. Pese a sus
limitaciones, tiene su aplicacion en ciertos contextos, por ejemplo una lavadora
automatica basada en secuencias de trabajo prefijadas en el tiempo.
El conductor del automovil no hace sino desde su posicion de gobierno, introducir en su sistema de decision neuronal, especialmente por medio de sus ojos,
informacion sobre el estado actual del automovil, permitiendo de esta forma el
que la toma de decision respecto a la condicion del mismo, adquiera un grado de
eficacia realmente fiable.
Este ejemplo, pese a su aparente artificiosidad es similar al que se presenta
cuando se trata de enviar una capsula a la luna. Debe notarse que la necesidad
de la realimentacion surge como consecuencia de la aparicion de perturbaciones
aleatorias que modifican el funcionamiento del sistema de acuerdo con un plan
previsto, o sencillamente por la imperfeccion del modelo del sistema que le impide
una prediccion exacta, a largo plazo, del funcionamiento del mismo.
Desde un punto de vista general, cabe decir que los sistemas con realimentacion
son aquellos en los que la adopcion de decisiones cara al futuro esta completamente influenciada por los efectos de las previamente adoptadas. Dicho con otras
palabras, son los sistemas en los que si la accion que se lleva a efecto persigue
una determinada meta, es la diferencia entre la precision alcanzada en la aproximacion a esta meta, y ella misma, la que determina las acciones posteriores. Este
tipo de actuaciones son las que se denominan control en bucle cerrado o control
por realimentacion.
En la figura 1.2 se representa en forma de diagrama de bloques lo anterior.
En dicha figura se representa por un lado el Sistema, cuya variable de Salida
pretendemos controlar de forma que siga a la Entrada. Para ello se dispone de
un Elemento de medici
on, que nos proporciona el valor de la se
nal de salida y
posteriormente una vez comparada con la se
nal de entrada se toma la decision
correspondiente para actuar sobre el sistema.
Conviene recordar que, en general, los sistemas fsicos poseen memoria del

Introduccion a los sistemas de control.

Entrada
-

Toma de
decision

Salida
-

Planta

Elemento
de
medicion

Figura 1.2: Realimentacion


pasado; por ello la salida del sistema en un instante dado no es funcion exclusivamente de la entrada en ese mismo instante: depende de toda la historia pasada de
las entradas. Por esta razon la estructura realimentacion es un objeto complejo
en cuanto a su comprension y dise
no.

1.4

Realimentaci
on, retardos y oscilaci
on.

La existencia de retardos en un circuito (bucle) de realimentacion, conduce a la


aparicion de fenomenos oscilatorios en el comportamiento dinamico del mismo.
Este hecho tiene una importancia capital al considerar el comportamiento dinamico
de los sistemas realimentados y gran parte del problema de dise
no de los mismos
reside en el amortiguamiento (o anulacion) de estas oscilaciones.
Con el fin de ilustrar de una manera intuitiva este hecho, considerese a un conductor que conduce un automovil, proceso que se puede interpretar con un bucle
de realimentacion tal como el de la figura 1.3. Entre la deteccion de un obstaculo,
y la accion correctora consiguiente (girar el volante, actuar sobre los frenos...), se
produce un cierto retardo que el conductor experimentado tiene perfectamente
asimilado, y no constituye un obstaculo para una conduccion normal.
Supongase que se trata de mantener el coche en lnea recta sobre una superficie
completamente llana, sin ning
un obstaculo. Sobre el automovil solo act
uan las
peque
nas perturbaciones (baches) del terreno y el conductor puede conseguir su

Introduccion a los sistemas de control.

Perturbaciones

Referencia
-

Ojos
(Sentidos)

- Conducci
on

Coche

Posicion
-

Figura 1.3: Ejemplo de realimentacion


objetivo con relativa facilidad.
Supongase ahora que el conductor debe realizar su cometido con los ojos
cerrados, llevando a su lado un copiloto que es el que le va transmitiendo las
indicaciones respecto a las desviaciones de la lnea recta que se trata de seguir.
El circuito de realimentacion se modifica, en este caso, al de la figura 1.4, con
ello lo que se ha introducido es de una manera artificiosa un notable retardo en
el bucle de realimentacion. Es facil comprender, que en este segundo caso, y
debido precisamente al retraso que se introduce en el bucle de realimentacion, la
conduccion sera fuertemente oscilante.
Un hecho importante que ilustra tambien el anterior ejemplo es que cuanto
mayor sea la velocidad a la que pretende conducirse el automovil, mayores seran
los efectos de oscilacion que se han indicado. El dilema entre velocidad de respuesta (precision) y estabilidad (ausencia de oscilaciones), constituye una de las
constantes que aparecen en el estudio de sistemas realimentados.

1.5

Sensibilidad y realimentaci
on.

Un sistema se dice sensible a la variacion de un determinado parametro cuando


este influye de forma importante en el comportamiento del mismo. Por ejemplo, la
conduccion de un automovil es extraordinariamente sensible al estado del firme

Introduccion a los sistemas de control.

Perturbaciones

Ref.

? ? ?

Ojos
(Sentidos)

on
-Transmisi
oral

-Conducci
on

Coche

Posicion
-

Figura 1.4: Sistema con retardo


de la carretera. Mas adelante se dara una definicion precisa de este concepto;
aqu, de momento, con esta nocion intuitiva es suficiente.
Los sistemas realimentados son enormemente menos sensibles a las perturbaciones que los sistemas sin realimentar. En efecto, un ejemplo trivial ayudara a
fijar esta idea. Considerese que se trata de preparar una ducha de agua templada.
El sistema se puede considerar en bucle abierto, es decir, sin realimentacion, si
una vez realizado el ajuste de las proporciones de agua fra y caliente, este permanece inalterado durante toda la ducha. Si aparece cualquier perturbacion, por
ejemplo, que en otro lugar de la casa se abra un grifo de agua caliente, lo que
influye en la mezcla, las consecuencias desagradables para el que se ducha no se
pueden atenuar. El sistema es enormemente sensible.
Por el contrario, si se puede actuar sobre los grifos durante todo el proceso,
entonces se tiene un sistema en bucle cerrado en el que la persona que se ducha
puede tomar las decisiones oportunas, y actuar sobre el sistema a traves de los
grifos, para corregir cualquier perturbacion que se pueda producir. El sistema,
en conjunto, ha atenuado las posibles perturbaciones exteriores, por lo tanto ha
disminuido su sensibilidad sobre las mismas.
Este ejemplo ayuda tambien a poner de manifiesto uno de los problemas mas
importantes que se pueden producir como consecuencia de la introduccion de la
realimentacion. Considerese que:
Los grifos se encuentran alejados del deposito de agua caliente; y

Introduccion a los sistemas de control.

Una peque
na variacion de cualquiera de los grifos influye sensiblemente en
la temperatura del agua.
Es claro que en tales condiciones se produciran oscilaciones de la temperatura del
agua, puesto que sera enormemente difcil ajustar la misma. Ello es debido a que
cualquier accion que se tome tarda un cierto tiempo en detectarse (en la espalda
del que se ducha que es el organo de medida), y por lo tanto este posiblemente se
pase en la correccion. El sistema se convierte entonces en un sistema inestable, y
la correccion de ese tipo de inestabilidad constituye uno de los primeros problemas
con los que se enfrenta el dise
nador de sistemas realimentados. Ello se pondra
ampliamente de manifiesto a lo largo de este curso.

1.6

Las Matem
aticas y el control autom
atico.

Las matematicas tienen un doble empleo en las ciencias empricas y aplicadas.


Las matematicas pueden usarse como lenguaje cuando se pretende formular
los problemas con la ayuda de conceptos matematicos buscando con ello la
precision y claridad.
Las matematicas pueden emplearse como herramientas cuando una vez
planteado el problema en terminos matematicos se resuelven las ecuaciones
que resultan (analticamente o por simulacion).
Por otra parte, cabe considerar que la ingeniera puede describirse como una
mezcla de sentido com
un y ciencia. Se trata de recurrir a planteamientos teoricos
que permitan profundizar en los problemas que se esten tratando, pero sin perder
de vista que en u
ltimo extremo de lo que se trata es de conseguir algo que funcione.
Estas consideraciones previas deben hacerse por cuanto que, como es logico
seg
un lo que se ha visto en los apartados anteriores, las matematicas juegan un
papel fundamental en la moderna teora del control automatico. Tan es as que
en alg
un sentido puede considerarse la teora del control automatico como una
rama de las matematicas aplicadas.
En la figura 1.5 se tiene un sencillo diagrama en el que se pretende expresar
las fases del metodo en control automatico. Estas fases pueden resumirse en:

Introduccion a los sistemas de control.

10

1. A partir del proceso, por abstracci


on, se construye el modelo matematico
del mismo. Esta primera fase no es especfica del especialista en control, y
requiere del concurso del especialista en el proceso a controlar.
2. Una vez obtenido el modelo matematico, se determina que tipo de accion
debe efectuarse sobre el mismo para que su comportamiento se adec
ue a las
metas propuestas. Se trata de determinar, lo que mas adelante se denominara ley de control.
3. Por u
ltimo, se trata de realizar fsicamente, la ley de control determinada
en el punto anterior para lo que se requiere el concurso de instrumentos
electronicos y fsicos que realicen esta funcion. En esta u
ltima fase se requiere de nuevo el concurso del especialista en el proceso a controlar (en
forma de instrumentista).

Modelo
Matematico
6

Ley de
Control

Abstraccion

Implementacion

Sistema
Fsico

Sistema
de Control

Figura 1.5: Fases del Metodo de Control


De las tres fases anteriores, la especfica del especialista en sistemas de control
es la segunda, que tiene un caracter fundamental matematico. Se ha llegado
incluso a decir que el especialista en control en realidad no trata con los sistemas
fsicos, sino exclusivamente con sus modelos matematicos.

Introduccion a los sistemas de control.

11

Por lo tanto, el terreno en que se mueve el especialista en control automatico,


esta fuertemente influido por las matematicas aplicadas, aunque nunca debe olvidarse las consideraciones hechas mas arriba respecto a la labor del ingeniero.

1.7

Se
nales y sistemas.

En el estudio de los sistemas de control es fundamental adquirir previamente una


idea clara de los conceptos de se
nal y sistema.
Se entiende por se
nal, en un sentido amplio, toda magnitud fsica que evoluciona en el tiempo. En un sentido mas restringido se requiere ademas que
esta se
nal tenga cierto contenido informacional, es decir que sea significativa en
cierto aspecto, los tipos de se
nales generalmente empleados en sistemas de Control son tensiones o corrientes electricas, desplazamientos mecanicos y presiones
neumaticas o hidraulicas, si bien en principio no hay ning
un incoveniente en incluir otro tipo de se
nales. Se empleara aqu la notacion habitualmente empleada
en matematicas para referirse a una magnitud fsica X que, en cada instante t,
toma un cierto valor.
La definicion de sistema es mas ambigua. Se entiende por sistema un conjunto
de partes entrelazadas operativamente de manera que unas act
uen sobre otras y
que en conjunto formen un todo. Un ejemplo de sistema de acuerdo con esta
definicion lo constituye el Sistema Economico Nacional, en el que salarios, nivel
de precios, ahorro, etc, interaccionan entre s. Aqu interesara la consideracion
de sistemas mas simples en los que los elementos interactuantes son fsicos y, de
hecho, puedan definirse magnitudes fsicas que describan su comportamiento. Un
sistema puede tambien definirse como un procesador de se
nales, en el sentido de
que excitado con determinadas se
nales responde con otras.
Es por lo tanto evidente que la consideracion del comportamiento dinamico
de un sistema tendra un papel preponderante, por cuanto que una se
nal es una
magnitud fsica que evoluciona en el tiempo, y un sistema es un procesador de
se
nales.
Normalmente, los sistemas que interesan en Automatica, tendran puntos de
acceso llamados entradas, por los que pueden ser excitados por se
nales llamadas
se
nales de entrada. As mismo tendran otros accesos en los que la evolucion
de ciertas magnitudes fsicas podra leerse. Estos puntos se llamaran salidas y
las magnitudes a ellos ligadas se
nales de salida. La voz punto, empleada en las
anteriores definiciones de entrada y salida, debe tomarse en un sentido amplio

Introduccion a los sistemas de control.

12

y no geometrico. Los sistemas se representan por medio de bloques tal como se


indica en la figura 1.6.
potencia

perturbaciones

Seales de
entrada
u(t)

Seales de
salida
y(t)

Figura 1.6: Sistema dinamico


Juntamente con las se
nales de entrada y salida interesa considerar que un
sistema puede estar sometido a otro tipo de entradas como son las de suministro de potencia o las perturbaciones. Pero con el fin de poder estudiar en su
comportamiento ciertas regularidades, que permitan su estudio matematico, se
considerara que estas, o bien se mantienen constantes (potencial), o bien sufren
solo variaciones despreciables (perturbaciones), de manera que el valor de la se
nal
de salida pueda considerarse funcion exclusivamente del conjunto de valores tomados por la se
nal de entrada. Por lo tanto normalmente la representacion de un
sistema se hara como indica la figura 1.1.
Como ejemplo de lo dicho se puede considerar un motor electrico en el cual el
campo se mantiene constante y se vara la velocidad actuando sobre la corriente
de inducido. (Figura 1.7)
Intensidad de
inducido

Excitacin
Constante
velocidad

Figura 1.7: Motor electrico


Desde el punto de vista que se esta considerando se dira que el motor es un
sistema que, a una se
nal de entrada u(t) (intensidad de inducido), da una se
nal

Introduccion a los sistemas de control.

13

de salida y(t) (velocidad del motor). Se puede, en cierto aspecto, prescindir de la


consideracion del campo.

1.8

Servomecanismos y reguladores.

La automatica es un campo vastsimo. En el se entrelazan aspectos teoricos y


tecnologicos de suerte que es difcil establecer en el mismo sistematizaciones de
cara a su estudio. Sin embargo atendiendo a su desarrollo historico y al interes
de ciertas aplicaciones a las que, por otra parte, se ha podido aplicar una teora
sencilla y fecunda, es posible extraer de todo el complejo mundo de la automatica
campos de estudio concretos como son los servomecanismos y los reguladores.
Un servomecanismo es un ingenio con el que se pretende controlar una posicion.
Ejemplos de servomecanismos se encuentran en campos tan variados como son
los posicionamientos de los timones de un barco, posicionamiento de las antenas de radar, posicionamiento de las ruedas de un camion en una servodireccion,
posicionamiento de la herramienta en un torno automatizado, posicionamiento
de la pluma en un registrador de precision, etc... El control de la posicion se
puede hacer de acuerdo con un sencillo esquema de realimentacion como el de la
figura 1.8.
e

y
amplificador

motor

Figura 1.8: Servomecanismo de posicion


Siempre que la posicion de salida no se encuentre en la posicion requerida por
la referencia aparece un error que actuando sobre el servomotor determina que
este act
ue corrigiendo el error. La u
nica posicion de equilibrio es aquella en que
la posicion de salida es igual a la referencia1 .
Por lo tanto un servomecanismo es, esencialmente, un sistema seguidor o re1

Esta afirmacion se restringe a una clase de sistemas mecanicos lineales.

Introduccion a los sistemas de control.

14

productor en el que la posicion de salida sigue o reproduce a la se


nal de entrada
(referencia). Una caracterstica esencial, que justifica las aplicaciones de los servomecanismos es que el nivel de potencia de la se
nal de salida puede ser muy
superior al de la se
nal de entrada. En el esquema anterior se ve como lo que
posiciona es el servomotor, que viene actuado por una potencia externa al conjunto (el campo) y una se
nal que viene del servoamplificador y que es la que
realmente corrige (alimentacion del inducido). Observese que la misma se
nal que
viene del servoamplificador ha recibido, en esta, potencia del exterior. Por lo
tanto un servomecanismo es un ingenio que reproduce se
nales de posicion a un
nivel de potencia superior. El precio de esta mayor potencia en la posicion de la
salida es una perdida de calidad en la se
nal, es decir, de una cierta distorsion.
Precisamente las tecnicas de dise
no de servomecanismos tratan de conseguir que
esta perdida de calidad de la se
nal sea mnima.
Un problema, aunque desde un punto de partida distinto al de los servomecanismos pero que conduce a planteamientos semejantes, es el de los reguladores.
Una determinada magnitud fsica se dice que esta regulada si esta provista de un
sistema que reaccione frente a los cambios del medio externo que afecten a esta
magnitud, de suerte que se mantenga en un valor aproximadamente constante.
Un ejemplo trivial de ello lo suministra un sistema de regulacion de temperatura
en una habitacion. El sistema calefactor, a traves de un termostato, debe reaccionar a las variaciones del medio (aperturas de puertas, entrada de mas o menos
gente, perdidas naturales distintas en el da que en la noche, etc...) de suerte que
la temperatura se mantenga constante.
Ta
a
K

Kc

Kp
c
Ti

+ V

Kt

+ Vt
+

Vr

Figura 1.9: Regulador de temperatura


El esquema que permite la regulacion de temperatura es esencialmente el
mismo de un servomecanismo, tal y como se ve en la figura 1.9. Sin embargo,
deben notarse las diferencias, desde un punto de vista fsico, entre ambos sistemas.
1. En el servomecanismo, la entrada (referencia) es variable y se pretende que

Introduccion a los sistemas de control.

15

la salida siga a la entrada. Mientras que en el regulador la entrada es


constante.
2. En el servomecanismo la fuente de error es la variacion de la referencia. En
el regulador la fuente de error son perturbaciones exteriores que separan el
sistema del estado requerido.
3. En el servomecanismo, la potencia de la se
nal de salida, que es lo que
interesa, es muy superior a la de la entrada de referencia (vease el ejemplo
de la amplificacion de fuerza del conductor en la servodireccion de un coche).
En el regulador, la se
nal de salida en s no interesa, sino que solo es una
medida de algo que sucede en la planta controlada, que es lo que realmente
interesa.
Junto a estas diferencias y a otras que pudieran establecerse se presenta la profunda semejanza entre ambos problemas, ya que los dos conducen al mismo diagrama de bloques realimentado que se muestra en las figuras 1.8 y 1.9. Basandose
en esta semejanza es por lo que el estudio de ambos problemas se hace simultaneo
pero no debe olvidarse nunca que fsicamente se trata de dos problemas diferentes.

1.9

Bosquejo hist
orico del control autom
atico.

A lo largo de la historia de la tecnica se encuentran m


ultiples ingenios en cuya
concepcion interviene la idea de realimentacion. Uno de los primeros ingenios de
esta naturaleza es el llamado reloj de agua (clepsidra). Seg
un algunos autores, su
origen es chino y se remonta a la dinasta Chen (siglos XI - XII a.C.), y seg
un otros
al mecanico griego Ktesibios (siglo XIII a.C.). En cualquier caso su antig
uedad
e ingeniosidad son innegables.
El primer trabajo significativo en control automatico fue el regulador centrfugo
de James Watt. Se trata de un regulador de bolas de una maquina de vapor. En
el regulador de Watt se regula la velocidad de una maquina de vapor por medio
de un sencillo artificio consistente en dos bolas metalicas de cierta masa sobre las
que act
uan las fuerzas centrfugas al girar el eje del que son solidarias a traves
de unos brazos (figura 1.10). Estos brazos estan articulados de manera que la
fuerza centrfuga que act
ua sobre las bolas puede determinar, a traves de dichas
articulaciones, una mayor o menor apertura de la valvula de alimentacion de la
maquina. Se tiene por lo tanto una cadena cerrada de acciones tal como la que
se indica en el diagrama de la figura 1.11.

Introduccion a los sistemas de control.

16

Caldera

:velocidad del eje.

vapor

eje de la mquina.

vlvula

Cilindro

Figura 1.10: Regulador centrfugo de Watt

Transmisin

vlvula

Mquina
de vapor

bolas

Figura 1.11: Diagrama de bloques: Regulador de Watt

Introduccion a los sistemas de control.

17

El interes que suscita en su tiempo la maquina de Watt es grande, puesto


que en ella se presentan los problemas de estabilidad a los que se aluda en los
apartados 1.4 y 1.5. Tan es as que James Clerk Maxwell, uno de los mayores
fsicos teoricos del siglo XIX se siente atrado por el problema y publica un trabajo
titulado On governors que constituye uno de los trabajos pioneros de la moderna
teora del control. Sin embargo, aparte de este trabajo, y alg
un otro de Routh
a finales de siglo, no es hasta los a
nos 30 del siglo pasado, cuando se acomete
de una manera sistematica el estudio de las tecnicas matematicas que permitan
estudiar y dise
nar sistemas realimentados. Durante la Segunda Guerra Mundial,
la necesidad de construir sistemas de control altamente sofisticados para fines
militares, condujo al desarrollo tanto en los Estados Unidos como en la antigua
Union Sovietica, de lo que hoy se conviene en llamar teora clasica de los servomecanismos, y que se estudiara mas adelante en este curso. En aquellos a
nos
Norbert Wiener publica la importante obra Cibernetics, en la que se recalca el
caracter fundamental de la nocion de realimentacion como concepto cientfico.
La teora clasica de los servomecanismos tiene enormemente limitadas su posibilidades de aplicacion por cuanto que la clase de sistemas a las que se aplica es
reducida. En ello determino la realizacion de estudios teoricos que permitiesen
construir una teora de sistemas que abarcarse una clase mas amplia de los mismos. Con ello se ha llegado al desarrollo de la teora moderna del control, basada
sobre la nocion de estado, y que se estudiara con detenimiento a lo largo de este
curso.

1.9.1

Control, inform
atica y telecomunicaciones.

A menudo se confunden las disciplinas de control automatico e informatica, habiendo visiones superficiales que consideran el control como una aplicacion de las
tecnologas de la informacion y comunicaciones. La raz de esto se halla en las
siguientes razones:
El sistema de decision que dise
nan los ingenieros de control para el gobierno
de los sistemas fsicos es un procesador de se
nales, y por tanto un procesador
de informacion, como son las computadoras.
nos 70 del siglo pasado y pos El advenimiento del microprocesador en los a
teriormente de los mas compactos microcontroladores, ha alterado significativamente los metodos del control automatico, de modo que apenas se
hace control sin la intervencion de las computadoras: tanto en la fase del
analisis matematico como en la concepcion de los instrumentos encargados

Introduccion a los sistemas de control.

18

del control. De hecho, una ley de control, en muchos casos, se especifica en


forma de algoritmo, que se traduce a su vez en una lista de instrucciones o
programa ejecutandose en la unidad central de una computadora industrial.
no de sistemas de control
Las teoras para el modelado matematico y dise
han sufrido una gran transformacion en las u
ltimas decadas, con el fin incorporar el potencial, las particularidades y limitaciones de las computadoras.
En este sentido, conceptos como sistemas operativos de tiempo real, concurrencia de procesos, planificacion de tareas, velocidad de proceso, algoritmos
en tiempo discreto, lenguajes, etc., se han convertido en terminos de uso
com
un en control.
Conceptos tradicionalmente asociados a las telecomunicaciones como los
sistemas distribuidos, redes inalambricas, ruido, capacidad de transmision,
teora de la informacion, etc. cobran una importancia creciente en el n
ucleo
de la teora del control. Otro hecho relevante es que la teora moderna del
control surgida en los a
nos 30 tiene su base en el invento del amplificador
realimentado que impulso el desarrollo de la telefona a gran distancia.
Sin embargo es conveniente recordar, como se desprende del apartado anterior, que el control realimentado es anterior a la invencion de la computadora
digital y, con anterioridad a ella, se han implementado controladores con circuitos analogicos y otras tecnologas. De hecho en la actualidad se implementan
sistemas de control realimentado carentes de elementos de computacion, como
son los termostatos.
Afirmar que el control es una aplicacion de las tecnologas de informacion
sera invertir el sentido de las cosas y exigira decir lo mismo de la arquitectura
o la medicina. Sucede simplemente que todas las actividades de caracter tecnico
o cientfico han evolucionado y se han beneficiado enormemente de la magnfica
herramienta que es la informatica.
En cualquier caso, la teora del control automatico se desarrolla en buena parte
al margen de los dispositivos fsicos donde se van a implementar, y a menudo
los metodos del control sobreviven a las computadoras y lenguajes concretos
empleados en su realizacion.

Tema 2
Introducci
on a los sistemas
realimentados
2.1

Servomecanismo de posici
on

Vamos a dedicar esta seccion a analizar un tipo de sistema realimentado que


presenta particular interes: el servomecanismo de posicion. Con el se trata de
posicionar un eje, que esta asociado al eje de un motor, y que constituye la se
nal
de salida del sistema. La se
nal de entrada es otra posicion, que se pretende
que reproduzca el eje de salida del sistema. Se dispone de un mecanismo que
permite detectar la discrepancia entre las posiciones de entrada y de salida. Esta
discrepancia o error es amplificada convenientemente para activar el motor que,
actuando sobre el eje de salida, determina su movimiento hasta anular el error;
es decir, hasta conseguir alinear el eje de salida en la direccion indicada por el eje
de entrada.
J

f
y(t)
u(t)

amplificador

Figura 2.1: Bucle abierto de un servomecanismo de posicion

19

Introduccion a los sistemas realimentados

20

En la figura 2.1 se muestra el bucle abierto de un servomecanismo. En ella


se pone de manifiesto como, mediante una amplificador la se
nal u(t) adquiere el
nivel adecuado para actuar sobre un motor, cuyo eje representa la posicion de
salida del servomecanismo. Este eje es solidario con una inercia J y una friccion
f.
En la figura 2.2 se muestra el bucle cerrado del servomecanismo. Al esquema
de la figura 2.1 se ha a
nadido una se
nal de referencia r(t) que se compara con
la salida del motor, y cuya discrepancia da lugar al error e, a partir del cual se
obtiene la se
nal u(t).
J
f
r(t) +

e(t)

u(t)

amplificador

y(t)

Figura 2.2: Bucle cerrado de un servomecanismo de posicion


En la figura 2.1 se puede hacer la hipotesis de que el par del motor es proporcional a la se
nal electrica de alimentacion del amplificador u(t). Con este supuesto
se puede escribir que la posicion del motor y(t) viene dada por la ecuacion diferencial:
J

d2 y
dy
+f
= u(t)
2
dt
dt

siendo en este caso y(t) el angulo girado por el motor, J la inercia del conjunto
motor-carga, y f el coeficiente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act
ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suficiente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado
transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las

Introduccion a los sistemas realimentados

21

que se pretende que tenga el sistema, es por lo que se desarrollaran a continuacion


los procedimientos de compensacion que se han dado en llamar en llamar clasicos
ya que fueron los primeros que se utilizaron.
Se emplean tres tipos de acciones:
Accion proporcional mas derivada (PD);
Accion proporcional mas integral (PI) y
Accion proporcional mas integral y mas derivada (PID).

2.2

Acci
on proporcional m
as derivada (PD).

Tiene lugar cuando la se


nal de mando del sistema es la suma de los terminos, proporcional y derivado de la se
nal de error. En este caso se dice que la compensacion
es del tipo PD.
Considerese el servomecanismo elemental descrito en el parrafo anterior. Se
va estudiar el caso en que la se
nal de mando sea proporcional al error y a su
derivada, es decir el caso en que se tenga una accion PD. La se
nal de mando sera,
por lo dicho,
de
u(t) = K e + Kd
dt
quedando
d2 y
dy
de
J 2 +f
= Ke + Kd
(2.1)
dt
dt
dt
y como e = r y
J

d2 y
dy
dr
dy
+
f
=
Kr

Ky
+
K

K
d
d
dt2
dt
dt
dt

d2 y
dy
dr
+
(f
+
K
)
+
Ky
=
Kr
+
K
d
d
dt2
dt
dt

(2.2)

La ecuacion 2.1 muestra que el sistema es excitado ahora por la se


nal de error
y por un impulso. La consecuencia inmediata es que el efecto corrector (inversion
del par motor) se aplica antes que cuando el control era solo proporcional, como se
muestra en la figuras 2.3.a y 2.3.b. En efecto, con control proporcional solamente,

Introduccion a los sistemas realimentados

22

el error cambia de signo en el punto f de la figura 2.3.b mientras que si la se


nal
de error es del tipo PD indicado, el cambio de signo se verifica en el instante g de
la figura 2.3.d, es decir, el par corrector se aplica antes de que la se
nal de salida
llegue al valor de la de referencia. En consecuencia, la sobreoscilacion sera menor.
La red PD tiene as un caracter anticipativo, ya que en cierta manera se anticipa
a lo que va a ocurrir.
Esta misma consecuencia se pone de manifiesto en la ecuacion 2.2, que muestra
la ecuacion diferencial del sistema en bucle cerrado. En ella se aprecia que el
coeficiente de la primera derivada se ha incrementado en el valor Kd , es decir, el
efecto ha sido aumentar la friccion del sistema primitivo y, por tanto, hacer que
el conjunto tenga una respuesta temporal con menor sobreoscilacion.
Por otro lado, tambien en la ecuacion 2.2 se aprecia que la parte no homogenea
de la ecuacion diferencial no es un escalon, sino un escalon mas un impulso. Ello
determina que el sistema responda mas rapidamente ya que no solo es sensitivo
a la referencia, sino que tambien lo es a su variacion. Todo se pone de manifiesto
observando las figuras 2.4.
De lo anterior se desprenden las dos caractersticas esenciales de una accion
PD :
1. Disminucion de la sobreoscilacion
2. Disminucion del tiempo de subida
Estos efectos se han considerado para un caso particular y especialmente simple, el de un servomecanismo elemental de posicion. Sin embargo son igualmente
validos, en general, para una amplia variedad de sistemas fsicos.

2.3

Acci
on proporcional m
as integral (PI).

En este caso, la se
nal de mando es la suma de un termino proporcional y otro
integral, de la se
nal de error.
u(t) = K e + Ki

Z t
0

e dt

Sea un sistema como el de la figura 2.5, al que se le ha incorporado una accion


integral en paralelo con la accion proporcional, es decir, se le ha dotado de una
accion PI.

Introduccion a los sistemas realimentados

23

(a)
t
e

(b)
f

de
dt

(c)
t
e+

de
dt

(d)
g
y

t
y
r

(e)
t
Figura 2.3: Compensacion con PD.

Introduccion a los sistemas realimentados

24

respuesta a Kr

(a)
respuesta a Kd dr
dt
t

y
respuesta a Kr + Kd dr
dt
r

(b)

t
Figura 2.4: Respuesta temporal con red PD.

Ki
+

R
+

G(s)
K

Figura 2.5: Diagrama de un sistema con regulacion PI

Introduccion a los sistemas realimentados

25

Supongase que a dicho sistema, en un regimen estacionario, se le aplica un par


externo Pe sobre la carga, es decir, sobre el eje de salida. El sistema reaccionara
tratando de anular dicho par puesto que la aplicacion del mismo, determina la
aparicion de un error, el cual alimenta al motor y le obliga a sumintrar un par
creciente con el tiempo. Si la accion de la red fuese solo proporcional, es claro
que el equilibrio se alcanzaria cuando el par generado por el motor fuese igual al
aplicado externamente.
Interesa ver con cierto detenimiento lo que ocurre cuando la accion de mando
es del tipo PI. Para ello, en primer lugar, se establecen las ecuaciones que rigen
la evolucion del sistema y que resultan ser

Z t
d2 y
dy
+
f
+
P
=
Ke
+
K
e dt
e
i
dt2
dt
0

siendo Pe el par externo aplicado y e = r y


Eliminado y se tiene
Z t
d2 r
d2 e
dr
de
Pe + J 2 J 2 + f
f
= Ke + Ki
e dt
dt
dt
dt
dt
0

Z t
d2 r
dr
d2 e
de
Pe + J 2 + f
= J 2 + f + K e + Ki
e dt
dt
dt
dt
dt
0

Si la referencia es un escalon, se tendra que


dr
=0
dt

d2 r
=0
dt2

En el regimen permanente, cuando t , si la introduccion del integrador


no ha hecho inestable al sistema, se tendra que
de
=0
dt

con lo cual,
Pe = K ep + Ki

d2 e
=0
dt2
Z
0

e dt

Introduccion a los sistemas realimentados

26

Como Pe es finito, la u
nica formaR de que se cumpla la ecuacion anterior es
que ep = 0 ya que en caso contrario, 0 edt . En consecuencia, el sistema
reacciona eliminando el error en regimen permanente (ep ).
Por lo dicho, una red PI mejora considerablemente el regimen permanente, no
solo de una manera cuantitativa, sino esencialmente cualitativa por cuanto que
cambia el tipo del sistema, es decir, no es que el sistema se mejore, sino que se
convierte en otro, de caractersticas distintas.
La interpretacion fsica del fenomeno es muy simple. La aplicacion del par
externo Pe , tiende a separar la posicion del eje de salida del valor en que la
ha fijado la se
nal de referencia (figura 2.6.a). Ello trae consigo la aparicion del
consiguiente error (figura 2.6.b).
Si la se
nal de actuacion sobre el sistema es proporcional al error, mas su
integral, se aplica una se
nal tal como la que se muestra en la figura 2.6.d. El
fenomeno que se produce entonces puede interpretarse diciendo que el par del
motor empezara a crecer hasta que vence al que se aplica exteriormente. La
evolucion del error y de la se
nal de salida se muestran en las figuras 2.6.e y 2.6.f.
Observese como es el elemento integrador el que mantiene la se
nal sobre el motor
para que este venza al par exterior.

Introduccion a los sistemas realimentados

27

a)

e
b)

z
t
R

edt
c)

e+

edt
d)

edt
e)

z
t

f)

Figura 2.6: Respuesta temporal a red PI

Tema 3
Sistemas din
amicos lineales
3.1

Transformaci
on de Laplace

En esta seccion vamos a repasar la transformada de Laplace que suministra una


herramienta de gran interes para el estudio de los sistemas cuya descripcion
matematica viene dada por ecuaciones lineales invariantes en el tiempo.

3.1.1

Definici
on

El metodo de la transformada de Laplace es un metodo opcional que puede utilizarse con ventaja para la resolucion de ecuaciones diferenciales lineales. La
transformada de Laplace se define como:
L [f (t)] = F (s) =

Z
0

f (t)est dt

f (t) es una funcion del tiempo tal que f (t) = 0 para t < 0, s = + jw una
variable compleja y L un simbolo operacional. La existencia de la transformada
F (s) esta condicionada a la convergencia de la integral.
Si existe una constante real y positiva tal que para > c , et | f (t) |
tiende a cero cuando t , mientras que para < c tiende a infinito. El
valor c recibe el nombre de abscisa de convergencia. La integral converge, y por
tanto existe la transformada de Laplace, si la parte real de s, () es mayor que la
28

Sistemas dinamicos lineales

29

abscisa de convergencia c .
En termino de los polos de la funcion F (s), la abscisa de convergencia c ,
corresponde a la parte real del polo mas alejado hacia la derecha en el plano s.
A la funcion f (t) se la conoce como la anti-transformada de Laplace, F (s) y
se expresa as,
f (t) = L1 [F (s)]
En la tabla siguiente se tienen las transformadas de Laplace de las funciones
mas usuales en automatica.
Tabla de Transformadas de Laplace
Se
nal
Impulso
Escalon
Rampa
Parabola
Rampa de orden n
Decrecimiento exponencial
Onda sinusoidal
Onda cosenoidal
Sinusoide con decrecimiento exponencial
Cosenoide con decrecimiento exponencial

3.1.2

f (t)
(t)
1 (t 0)
t(t 0)
2
t (t 0)
tn (t 0)
et
sent
cost
t
e sent
et cost

F (s)
1
1
s
1
2
s
2
s3
n!
sn

1
(s+)

(s2 + 2 )
s
(s2 + 2 )

((s+)2 + 2 )
s+
((s+)2 + 2 )

Resumen de Propiedades

F1 (s)+
1. Linealidad: Si F1 (s) y F2 (s) son las transformadas de f1 (t) y f2 (t),
F2 (s) es la transformada de Laplace de f1 (t) + f2 (t), seg
un se desprende de
la definicion.
2. Derivaci
on real: Si L [f (t)] = F (s), entonces
"

df (t)
= sF (s) f (0)
L
dt

Sistemas dinamicos lineales

30
R

En efecto, como F (s) =


haciendo

f (t) est , realizamos la integracion por partes


Z

1
est dt = est y dv = est dt
s

u = f (t) ; du = f (t) dt ; v =
Z

u dv = uv

vdu

por lo que resulta,


Z
0

F (s) =

"

st

f (t) e

f (t)est
dt =
s

f (0) 1 Z 0
+
f (t) est dt,
s
s 0

1
est f 0 (t)dt =
s

pero

f 0 (t) est dt = L [f 0 (t)]

luego:
L [f 0 (t)] = sF (s) f (0) c.q.d.
3. Integraci
on real: Si L [f (t)] = F (s),
L

Z t

F (s)
f ( ) d =
+
s

Si en la expresion F (s) =

R
0

f (0) dt
s

f (t) est dt se hace:

u = est ; du = sest dt
Z

v=

f (t) dt;

dv = f (t)dt

se tiene que,

F (s) =

Z
0

st

Z
st

f (t)e dt = e

f (t)dt

f (0)dt + s

Z Z
0

Z
0

Z
st

se

f (t)dt est dt ;

f (t)dt dt =

Sistemas dinamicos lineales

y como

31

Z Z

f (t)dt e

Z
st

dt = L

F (s)
f (t)dt =
+
s

f (t)dt =

f (0)dt
c.q.d.
s

4. Teorema del valor final:


Hay veces en que hechas las operaciones precisas con la ecuacion transformada, interesa conocer el valor de la funcion f (t) cuando t , que
en el caso de un servosistema, correspondera al regimen permanente. El
procedimiento consistira en hallar la antitransformada y hacer que t .
El procedimiento es laborioso y resulta mucho mas comodo verificar el valor
de la variable sobre la propia ecuacion transformada.
Supondremos que existe L [f (t)] y L [f 0 (t)] y demostraremos que,
lim f (t) = lim sF (s)

s0

Sabemos que
Z
0

f 0 (t)est dt = sF (s) f (0)


lim

s0

pero lim

s0

Z
0

haciendo que s 0

f 0 (t)est dt = lim [sF (s) f (0)]

(3.1)

s0

f 0 (t)est dt =

Z
0

f 0 (t)dt = lim

Z t

t 0

= lim [f (t) f (0)]


t

y sustituyendo en 3.1, se tiene,


lim [f (t) f (0)] = lim [sF (s) f (0)]

s0

y como f (0) no depende de t ni de s, queda,


lim f (t) = lim sF (s) c.q.d.

s0

f 0 ( )d =

Sistemas dinamicos lineales

32

5. Teorema del valor inicial:


Si lo que nos interesa conocer del sistema es su comportamiento cuando
t 0, que correspondera en un servosistema a conocer su comportamiento
transitorio, se puede hallar tambien sobre la ecuacion transformada, ya que
lim f (t) = s
lim sF (s)
t0

Al igual que antes, en la expresion


L [f 0 (t)] =

f 0 (t)est dt = sF (s) f (0) hacemos que s

lim

f 0 (t)est dt = lim [sF (s) f (0)]


s

s 0

y como el primer miembro es cero, lims sF (s) = lims f (0) = f (0) ya


que f (0) no depende de s y como f (0) es limt0 f (t) quedara
lim f (t) = lim sF (s) c.q.e.
s

t0

6. Integral de Convolucion:
Sean
F1 (s) = L [f1 (t)]

F2 (s) = L [f2 (t)]

El producto de ambas,

F1 (s) F2 (s) =
=

Z
0

f1 (t)e

Z Z
0

st

dt

Z
0

f2 ( )es d =
(3.2)

f1 (t)f2 ( )es(t+ ) dt d

Haciendo el cambio de variables,


t = uv
=
v

v =

u = t+

el Jacobiano de la transformacion vale,

t,

J(
) =
u, v

t
u

t
v

1 1

=
=1

0
1

(3.3)

Sistemas dinamicos lineales

33

Como t > 0, u > v luego v viariara de 0 a u.


La ecuacion 3.3 queda

F1 (s) F2 (s) =
=

Z Z u
Z0 Z0 u
0

f1 (u v) f2 (v)esu dv du =

f1 (u v) f2 (v)dv esu du

luego
F1 (s) F2 (s) = L

Z u
0

f1 (u v) f2 (v) dv

La expresion encerrada en el corchete se conoce como integral de convolucion


y representa la antitransformada del producto de dos transformadas.

3.1.3

Calculo de antitransformadas

Con el calculo de antitransformadas se pretende determinar a partir de la transformada de Laplace F(s) la correspondiente antitransformada; es decir,
f (t) = L1 [F (s)]

La transformada posee s
olo polos reales y simples
Supongase que el denominador de la funcion de la que se quiere hallar la antitransformada, F (s), es de la forma
d(s) = (s + p1 )(s + p2 ) . . . (s + pn )
de modo que los diferentes pi son reales y diferentes entre si. En tal caso la
funcion F (s) admite una descomposicion en fracciones simples de la forma
F (s) =

n(s)
a1
a2
an
=
+
+ ... +
d(s)
s + p1 s + p2
s + pn

los coeficientes ai reciben la denominacion de residuos de F (s) en s = pi . Multiplicando los dos miembros de la expresion anterior por (s+pi ) y haciendo s = pi
se tiene

Sistemas dinamicos lineales

34

"

n(s)(s + pi )
ai =
d(s)

#
s=pi

puesto que se sabe, de la tabla de transformadas, que


"

ai
=
= ai epi t
(s + pi )

se tiene que
f (t) = a1 ep1 t + a2 ep2 t + . . . an epn t
En esta expresion se pone de manifiesto que a cada pi se asocia una funcion
(una trayectoria o un comportamiento) de la forma epi t . Estas funciones reciben
la denominacion de modos naturales del sistema. Se dice que un modo natural es
asintoticamente estable si pi 0.
Ejemplo Sea la transformada de Laplace
F (s) =

(s + 3)
(s + 1)(s + 2)

se tiene que los residuos resultan ser


"

(s + 3)
a1 =
(s + 2)
"

(s + 3)
a2 =
(s + 1)

=2
s=1

= 1
s=2

luego
f (t) = 2et e2t t 0

La transformada posee polos complejos


Supongamos ahora que la transformada de Laplace posee un par de polos complejos conjugados p1 y p1 . En tal caso la descomposicion en fracciones simples
tomara la forma:

Sistemas dinamicos lineales

F (s) =

35

n(s)
1 s + 2
a3
an
=
+
+ ... +
d(s)
(s + p1 )(s + p1 ) s + p3
s + pn

Si se multiplican los dos miembros de esta expresion por (s + p1 )(s + p1 ), y se


hace s = p1 , se tendra:
"

(1 s + 2 )s=p1

n(s)(s + p1 )(s + p1 )
=
d(s)

#
s=pi

Esta expresion permite determinar 1 y 2 igualando partes reales e imaginarias.


Para hallar la antitransformada correspondiente al termino asociado al par
complejo basta recordar que:
"

L1
"

L1

= et sent
((s + )2 + 2 )
#

s+
= et cost
((s + )2 + 2 )

En concreto, si se supone:
p1 = a + j y p1 = a j
se tendra

1 s + 2
1 s + 2
=
=
(s + p1 )(s + p1 )
(s + a + j)(s + a j)
"
#
"
#
s+a
(2 1 a)

1
+
((s + a)2 + 2 )

((s + )2 + 2 )
Ejemplo
Sea la transformada de Laplace
F (s) =

(s + 1)
s(s2 + 2s + 2)

Sistemas dinamicos lineales


Se tiene:

36
"

(s + 1)
a3 =
2
(s + 2s + 2)

=
s=0

1
2

Por tanto,
11 1
s
2
2 s 2 s + 2s + 2
11 1
s
=

2 s 2 (s + 1)2 + 1
11 1
s+1
1
1
=

+
2
2 s 2 (s + 1) + 1 2 (s + 1)2 + 1

F (s) =

De donde se tiene,
f (t) =

1 1 t
1
e cost + et sent t 0
2 2
2

La transformada posee polos m


ultiples
Supongase que una de las raices del polinomio del denominador de la transformada
de Laplace es m
ultiple. Por ejemplo, supongase que la raiz p1 tiene multiplicidad
r. En tal caso el denominador admitira la descomposicion:
d(s) = (s + p1 )r (s + p2 ) . . . (s + pn )
En tal caso, la transformada de Laplace admite la descomposicion:

F (s) =

n(s)
br
br1
b1
a2
an
=
+
+ ... +
+
+ ... +
r
r1
d(s)
(s + p1 )
(s + p1 )
s + p1 s + p2
s + pn

Si se multiplican los dos miembros de esta expresion por (s + p1 )r se tendra:


"

n(s)(s + p1 )r
bi =
d(s)

#
s=p1

Observese que
r

r1

(s+p1 ) F (s) = br +br1 (s+p1 )+. . .+b1 (s+p1 )

an (s + p1 )r
a2 (s + p1 )r
+. . .+
+
s + p2
s + pn

derivando esta expresion con respecto a s se tiene

Sistemas dinamicos lineales

37

d
[(s + p1 )r F (s)] = br1 + 2br2 (s + p1 ) . . . + (r 1)b1 (s + p1 )r2 +
ds
"

"

d a2 (s + p1 )r
d an (s + p1 )r
+ ... +
ds
s + p2
ds
s + pn

y haciendo en esta expresion s = p1 se tiene


d
[(s + p1 )r F (s)]s=pi = br1
ds
Derivando de nuevo con respecto a s y procediendo analogamente se tiene
br2 =

1 d2
[(s + p1 )r F (s)]s=p1
2 ds2

En general se tendra

brj

1 dj
=
[(s + p1 )r F (s)]s=p1
j
j! ds

Ejemplo
Sea
F (s) =

s2 + s + 2
(s + 1)3

que se desconpone
F (s) =

b3
b2
b1
+
+
3
2
(s + 1)
(s + 1)
(s + 1)

Se tendra
b3 = [s2 + s + 2]s=1 = 2
b2 = [2s + 1]s=1 = 1
b1 = 1
Por tanto
F (s) =

2
1
1

+
(s + 1)3 (s + 1)2 (s + 1)

De donde se tiene,
f (t) = (t2 t + 1)et

Sistemas dinamicos lineales

3.2

38

Noci
on de sistema din
amico.

Uno de los conceptos basicos empleados en automatica es el de sistema. En el


lenguaje ordinario se entiende por sistema una coleccion de objetos unidos por
cierta forma de interaccion o interdependencia. En el contexto de la automatica
el concepto de sistema adquiere un significado mas preciso.
Considerese un objeto fsico, , por ejemplo un motor electrico, al cual aparecen asociadas una serie de magnitudes, como pueden ser su velocidad de giro, la
intensidad que alimente el inducido, etc. Desde el punto de vista que interesa en
automatica lo que conviene de son las relaciones matematicas entre las distintas magnitudes m1 (t), m2 (t)...mn (t) que se asocian a dicho objeto fsico. Estas
relaciones constituyen un objeto abstracto, por abstraccion de unas caractersticas
de un objeto fsico.
En automatica los objetos fsicos que intervienen son tales que las magnitudes
fsicas que a ellos se asocian se pueden clasificar en dos grupos:
1. magnitudes cuyo valor puede ser variado directamente desde el exterior del
objeto fsico, que reciben el nombre de se
nales de entrada, de control, de
mando o estmulos; y
2. magnitudes cuyo valor puede ser medido pero cuya variacion es indirecta,
a traves de las se
nales de entrada, y que reciben el nombre de se
nales de
salida, de observacion o respuestas.
Para denotar a las se
nales de entrada se emplea u(t), y para las se
nales de salida
se emplea y(t), siendo, en general, u(t) e y(t) vectores.
P

Se entiende por sistema


el objeto abstracto formado por las relaciones que
ligan las se
nales u(t) e y(t). Un sistema se presenta en forma esquematica como se
hace en la figura 3.1, representacion que recibe el nombre de diagrama funcional
del sistema. Definido as un sistema representa una formalizacion del uso vulgar
de este termino.
El problema de la representacion matematica de los sistemas se reduce a
encontrar la forma matematica, bien sea una ecuacion o, de forma mas general,
un algoritmo, que permita generar los pares de se
nales u(t), y(t) que definen el
sistema.
Las se
nales u(t) e y(t) pueden registrarse o bien de una manera contnua en el

Sistemas dinamicos lineales

39

u(t)

y(t)

Figura 3.1: Sistema dinamico


tiempo, o bien de una forma discontnua, es decir tomando medidas cada cierto
intervalo de tiempo. En el primer caso se tienen los llamados sistemas en tiempo
contnuo y en el segundo los sistemas en tiempo discreto. Estos u
ltimos tienen
un particular interes practico cuando se emplean computadores puesto que estas
maquinas trabajan de una forma discreta.

3.3

Formas de las relaciones entrada-salida en


sistemas.

Se ha indicado en la seccion 3.2, que un sistema esta formado por las relaciones
matematicas que ligan las se
nales u(t) e y(t) que lo definen. En esta seccion se
van a considerar algunas formas matematicas de las relaciones que ligan a las
se
nales u(t) e y(t) en tipos de sistemas com
unmente encontrados en la practica.
Sin embargo, en el resto de estos apuntes solo se estudiara una de las clases
consideradas en esta seccion. Una posible primera clasificacion elemental de las
relaciones que ligan a las se
nales de entrada y salida de los sistemas, es en sistemas
estaticos y sistemas dinamicos.

3.3.1

Sistemas est
aticos.

El caso mas simple de relacion entre las se


nales u(t) e y(t) es aquel en que esta se
reduce a una ecuacion algebrica. Por una consideracion elemental de realizabilidad fsica es claro que en tal caso se podra escribir:
y(t) = F {u(t)}

(3.4)

en donde, para los casos de interes practico F{.} es una funcion uniforme. Los
sistemas que admiten esta forma de representacion reciben el nombre de sistemas

Sistemas dinamicos lineales

40

estaticos, y son aquellos en los que el valor que toma la se


nal de salida y(t), en un
cierto tiempo t depende exclusivamente del valor tomado por la se
nal de entrada
u(t) en dicho instante de tiempo t, y no de los valores tomados por u(t) en el
pasado.
Los sistemas logicos combinacionales, constituyen un ejemplo de sistemas
estaticos definidos por la propiedad de que las se
nales de entrada u(t) y salida
y(t) toman sus valores del conjunto finito U = Y = {0, 1}. Para la representacion
matematica de los sistemas logicos combinacionales se recurre a tablas en las que
se indican para cada combinacion posible de los valores de las se
nales de entrada,
los correspondientes de la se
nales de salida. Desde un punto de vista matematico
estas tablas constituyen una de las formas mas simples de representar una funcion.

3.3.2

Sistemas din
amicos

Normalmente las relaciones que ligan las magnitudes fsicas que definen un sistema no son ecuaciones algebraicas, que conducen a sistemas estaticos, sino ecuaciones diferenciales. Ello es debido a que la mayor parte de las leyes de la fsica
se expresan por medio de esta clase de ecuaciones.
Aqu se consideraran exclusivamente las ecuaciones diferenciales de la forma,
dn y
dy
dn u
+
...
+
a
+
a
(t)y
=
b
(t)
+ ... + bn (t)u
n1
n
0
dtn
dt
dtn

(3.5)

llamadas ecuaciones diferenciales lineales. El hecho de limitarse a esta clase de


ecuaciones diferenciales es debido a:
1. solo para esta clase de sistemas es posible establecer, en la actualidad, una
teora que sea a la vez general y simple; y
2. al menos en una primera aproximacion, gran parte de los sistemas encontrados en la practica admiten esta forma de representacion.
Cabe considerar que la teora de sistemas lineales es a la teora de sistemas nolineales, como la geometra euclidea es a las formas de geometra no-euclidea. Es
sabido que la geometra euclidea es un u
til de un interes practico incuestionable;
lo mismo sucede con la teora de los sistemas lineales.
Otra relacion entre la entrada y salida de un sistema es la que presentan las
ecuaciones en diferencias finitas. De ellas las que mayor interes tienen son, por

Sistemas dinamicos lineales

41

consideraciones semejantes a las realizadas mas arriba respecto a las ecuaciones


diferenciales lineales, las ecuaciones en diferencias finitas lineales cuya forma general es,
y(t+n)+...+am1 y(t+1)+am y(t) = b0 u(t+n)+...+bn1 u(t+1)+bm u(t) (3.6)
Los sistemas descritos por las ecuaciones en diferencias finitas son sistemas en
tiempo discreto, en los que la escala de tiempos toma solo una serie de valores
discretos. Esta forma de relacion se presenta en aquellas aplicaciones en las que
se emplean computadores.
Por u
ltimo cabe recordar como otra forma de relacion entre las se
nales de
entrada y salida de un sistema la que ofrecen los diagramas de estados de los
circuitos logicos secuenciales (o, mas general, de los automatas). En dichos diagramas se tena representada la evolucion de las se
nales de entrada u(t) y de salida
y(t) de un sistema cuya caracterstica adicional es que las se
nales de entrada y
de salida solo podran tomar sus valores de un conjunto finito.
Los sistemas descritos por ecuaciones diferenciales, por ecuaciones en diferencias finitas, o por diagramas de estados reciben la denominacion de sistemas
dinamicos y en ellos el valor tomado por la se
nal de salida y(t), en un cierto
instante de tiempo t depende del valor tomado por u(t), no solo en el instante t
(como suceda en los estaticos), sino en todos los instantes anteriores a t.
En ellos, por lo tanto, la consideracion del tiempo juega un papel esencial. De
ah la denominacion de dinamicos. Observese que los sistemas estaticos pueden
considerarse como una forma particular y degenerada de los dinamicos por lo que
son estos u
ltimos los u
nicos que se consideran en lo que sigue.
En estos apuntes no se trataran explcitamente, los sistemas logicos secuenciales. No obstante si estos son lineales son susceptibles de ser estudiados con las
tecnicas aqu desarrolladas. Sin embargo, ello no se hara aqu de forma explcita.
La forma de representacion de los sistemas dinamicos por ecuaciones diferenciales, o por ecuaciones en diferencias finitas, no tiene interes practico para el
desarrollo de la automatica. Para el estudio de los sistemas dinamicos se han desarrollado dos formas peculiares de representacion, que son la descripci
on externa
y la descripci
on interna que se pasan a estudiar a continuacion.

Sistemas dinamicos lineales

3.4

42

Descripci
on externa de los sistemas din
amicos.

Puesto que las se


nales que definen un sistema dinamico son las de entrada u(t) y
las de salida y(t) interesa disponer de una relaci
on explicita directa entre ambas.
Esta relacion la suministra la descripcion externa que se define por una funcion
de entrada-salida F tal que hace corresponder al conjunto de valores tomados por
la se
nal de entrada u en un cierto intervalo (t0 , t), el valor tomado por la salida
y(t) en el instante t. Formalmente se puede escribir,
y(t) = F (u[t0 , t])

(3.7)

en donde F (.) es un funcional, es decir una funcion cuyo argumento lo constituye


el conjunto de valores tomados por u(t) en el intervalo (t0 , t).
Desde el punto de vista de la descripcion externa un sistema dinamico lineal
se define cono aquel que cumple la propiedad de linealidad, en virtud de la cual,
F (1 u1 [t0 , t] + 2 u2 [t0 , t]) = 1 F (u1 [t0 , t]) + 2 F (u2 [t0 , t])
en donde 1 , 2 son n
umeros reales arbitrarios. Esta propiedad recibe tambien,
impropiamente, la denominacion de principio de superposicion.
Habitualmente se emplean dos formas de descripcion externa: la respuesta
impulsional y la funcion de transferencia.

3.4.1

Respuesta impulsional.

Una forma de escribir la solucion a una ecuacion diferencial como la de la expresion (3.5) es la siguiente:
y(t) =

Z t

h(t, )u( )d

(3.8)

en donde h(t, ) recibe el nombre de respuesta impulsional del sistema. La expresion (3.8) es una forma de descripcion externa de un sistema dinamico ya que
corresponde al caso de una funcion lneal.
La respuesta impulsional de un sistema puede tener las siguientes propiedades:

Sistemas dinamicos lineales

43

1. Propiedad de causalidad o realizabilidad, en virtud de la cual un efecto


no puede preceder a una causa, lo que implica que
h(t, ) = 0

para

t<

2. Propiedad de estabilidad, en virtud de la cual la estabilidad del sistema


exige la convergencia de (3.8), lo que se traduce en
lim h(t, ) = 0

3. Propiedad de estacionaridad, en virtud de la cual el sistema es invariante


con el tiempo, lo que se traduce en que
h(t, ) = h(t , 0) = h(t )
Ejemplo:
Sea el sistema dinamico descrito por la ecuacion diferencial,
dy
+ ay = bu
dt
En donde a y b son dos n
umeros reales. La solucion de esta ecuacion de la
forma de la expresion (3.8) es la siguiente,

y(t) =

Z t

ea(t ) b u( )d

En donde la respuesta impulsional h(t, ) = bea(t ) , es claro que cumple las


propiedades de causalidad, estabilidad y estacionaridad.
La respuesta impulsional admite un significado adicional muy preciso. Supongase
un sistema con una sola entrada y una sola salida. Supongase, ademas, que dicho
sistema se somete a la siguiente se
nal de entrada:
u(t) = (t1 )
en donde (t) es la funcion de Dirac. En tal caso se tiene que,
y(t) = h(t, t1 )

44

y(t)

Sistemas dinamicos lineales

Figura 3.2: Respuesta Impulsional


si el sistema no es estacionario o
y(t) = h(t t1 )
si el sistema es estacionario.
En la figura 3.2 se muestra la respuesta impulsional del sistema del ejemplo
anterior. De lo anterior se desprende que la respuesta impulsional de un sistema es determinable experimentalmente en la medida en que se pueda realizar
fsicamente una se
nal de entrada u(t) = (t). Es sabido que esta u
ltima no tiene
significado fsico, pero sin embargo se pueden concebir aproximaciones aceptables. Debe a
nadirse que en la practica como realmente se miden las respuestas
impulsionales es por las tecnicas de correlacion que no se van a tratar aqu.
Para sistemas multivariables, con m entradas y p salidas, la respuesta impulsional es una matriz, de dimension p m, cuyo termino hi,j representa la
respuesta del i-esimo canal de salida, cuando se aplica una entrada u(t) = (t) al
canal j-esimo, siendo nulas el resto de las entradas.

3.4.2

Funci
on de transferencia.

Para los sistemas lineales estacionarios existe una forma de descripcion externa
muy empleada en la practica: la funcion (matriz) de transferencia. Se puede

Sistemas dinamicos lineales

45

definir la funcion de transferencia como la transformada de Laplace de la respuesta


impulsional de un sistema.
H(s) =

Z
0

h( )e s d

(3.9)

Aplicando la transformacion de Laplace a la expresion (3.8), para el caso de


un sistema estacionario, se tiene
Y (s) = H(s) U (s)

(3.10)

en donde Y (s) y U (s) son, respectivamente, las transformadas de Laplace de las


se
nales de entrada y salida.
En la practica la funcion de transferencia se determina directamente a partir
de la ecuacion diferencial. Un punto muy importante a considerar es que esta
determinacion se hace suponiendo condiciones iniciales nulas para las se
nales u(t)
e y(t).
Ejemplo:
Sea el sistema descrito por la ecuacion diferencial,
d2 y
dy
+
a
+ a2 y = bu
1
dt2
dt
La transformada de Laplace de los distintos terminos de la ecuacion es la
siguiente,
s2 Y (s) + a1 sY (s) + a2 Y (s) = bU (s)
Con lo que se tiene,
b
Y (s)
= H(s) = 2
U (s)
s + a1 s + a2
es decir que la transformacion de Laplace de la respuesta impulsional es la
funcion de transferencia.
Para el caso de sistemas multivariables con m entradas y p salidas la funcion de
transferencia se convierte en una matriz cuyo termino Hij representa el cociente

Sistemas dinamicos lineales

46

entre la transformada de Laplace de la se


nal de salida que se obtiene por el canal
i y la transformada de Laplace de la se
nal de entrada que se aplica al canal j,
supuestas nulas las otras se
nales de entrada.

3.5

Sistemas de control realimentados

Un sistema de control realimentado se representa esquematicamente como se indica en la figura 3.3. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.

r(t) +
e

-@
@

6m

u
K

y(t)
-

H(s)

G(s)

Figura 3.3: Sistema de Control realimentado

Cadena directa o de acci


on, es la que une los elementos comprendidos
entre la se
nal de error y la de salida. Ambas se
nales estan relacionadas por
la expresion,
Y (s)
= KG(s)
E(s)
siendo G(s) la funcion de transferencia del sistema considerado.
Cadena de realimentaci
on, es la que une la se
nal de salida con la de
informacion m(t), que es comparada con la de referencia. Ambas se
nales se
relacionan as,

Sistemas dinamicos lineales

47

M (s)
= H(s)
Y (s)
En este caso H(s) es la funcion de transferencia de la cadena de realimentacion.
Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se
nal
de entrada fuese e(t) y la de salida m(t). La funcion de transferencia del
conjunto as dispuesto sera
M (s)
= KG(s)H(s)
E(s)
Se llama bucle cerrado, al sistema conectado como se indica en la figura
3.3. Las se
nales y(t) y r(t) se relacionan por la conocida formula, facil de
deducir,
Y (s)
KG(s)
=
R(s)
1 + KG(s)H(s)
Observese que, en este caso, la se
nal de actuacion sobre el sistema es proporcional a la se
nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador sera, por tanto, un parametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentacion es
unitaria, con lo que el esquema fundamental quedara de la forma que se
indica en figura 3.4 y quedando la funcion de transferencia en bucle cerrado
reducida a
Y (s)
KG(s)
=
R(s)
1 + KG(s)
Naturalmente en este caso cadena de acci
on y bucle abierto son dos conceptos coincidentes.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:

Sistemas dinamicos lineales

48

r(t) +
e

@
-@
@

6m

y(t)
-

G(s)

Figura 3.4: Sistema de Control realimentado unitariamente

Compensacion en serie: Cuando el elemento corrector se coloca en cascada,


en la cadena de accion; y
Compensacion por realimentaci
on: Cuando el elemento corrector constituye
una segunda cadena de realimentacion, en el bucle de control.
Los esquemas basicos para uno y otro caso se muestran, respectivamente, en
las figuras 3.5 y 3.6.

u0

r(t) +
e

6m

Gr (s)

u
K

y(t)
G(s)

Figura 3.5: Compensacion en serie


Como ya se ha indicado, en el caso de la compensacion en serie, la red correctora se coloca en cascada con los elementos de la cadena de accion, y delante del

Sistemas dinamicos lineales

49

r(t) +
e

-@

-@
@
@
@
@

6
6m

u
K

y(t)
-

Gr (s)

G(s)

Figura 3.6: Compensacion por realimentacion

amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo.

Tema 4
Interpretaciones de la funci
on de
transferencia
4.1

Transformaci
on de Fourier

Dada una funcion del tiempo periodica fT (t) de periodo T , se puede desarrollar
en serie de Fourier, de la forma:

fT (t) = a0 +

(an cos wn t + bn sen wn t)

n=1

donde wn =

2n
y los coeficientes vienen dados por:
T

2 Z T /2
an =
fT (t)cos wn tdt
T T /2

bn =

2 Z T /2
fT (t)sen wn tdt
T T /2

n = 0, 1, 2, ...

n = 1, 2, ...

supuesto que dichas integrales sean finitas.


Los coeficientes an y bn son funciones de wn , pero no del tiempo, por lo
que fT (t) queda definida mediante los modulos de los componentes armonicos
50

Interpretaciones de la funcion de transferencia

51

que lo integran; ahora bien, tomando como parametros, por agrupacion de las
componentes en seno y coseno de igual frecuencia los valores:

cn =

n = tag 1

a2n + b2n

bn
an

cada termino puede expresarse como


an cos wn t + bn sen wn t = cn sen(wn t + n )
Por lo tanto, para definir fT (t) basta con especificar la amplitud y el desfase
que corresponde a cada frecuencia fundamental:

fT (t) = a0 +

cn sen(wn t + n )

n=1

Una vez que se ha mostrado como fT (t) queda completamente definida con
a0 , cn y n , pueden considerarse las relaciones,

cos =

ej + ej
;
2

sen =

ej ej
2j

Entonces, volviendo a tomar las ecuaciones de definicion,

an cos wn t + bn sen wn t = an
=

ejwn t + ejwn t
ejwn t ejwn t
+ bn
=
2
2j

(an jbn ) jwn t (an + jbn ) jwn t


e
+
e
2
2

y efectuando analogas consideraciones con las integrales de definicion de an y


bn
1 Z T /2
an jbn
=
fT (t)ejwn t dt
2
T T /2

Interpretaciones de la funcion de transferencia

52

an + jbn
1 Z T /2
=
fT (t)ejwn t dt
2
T T /2
n
n
Es decir an jb
tiene una expresion identica a an +jb
sin mas que cambiar wn
2
2
por wn , esto es, n por -n, luego sustituyendo en el desarrollo en serie, puede
escribirse

#
"Z

T /2
1 X
jwn t
fT (t)e
dt ejwn t
fT (t) =
T n= T /2

La cantidad entre corchetes representa una funcion compleja que tiene como
parametro el valor imaginario j wn , toda vez que el tiempo desaparece al integrar.
Esta funcion recibe el nombre de Transformada de Fourier de la funcion temporal
periodica fT (t):

F (jwn ) =

Z T /2
T /2

fT (t)ejwn t dt

Es inmediato ver que, igual que cn y n definan completamente fT (t), esta


funcion queda completamente definida conociendo F (jwn ), con lo que basta una
magnitud compleja para cada frecuencia:
fT (t) =

1 X
F (jwn )ejwn t
T n=

Ahora bien, como

wn =
luego

2n
;
T

wn+1 wn =

2
= wn
T

1 X
fT (t) =
F (jwn )ejwn t wn
2 n=

Si se hace crecer el periodo indefinidamente, T , el sumatorio tiende a


la integral, wn dw, por lo que puede escribirse, finalmente, para una funcion
no periodica (Transformacion de Fourier o Integral de Fourier):
F (jw) =

f (t)ejwt dt

Interpretaciones de la funcion de transferencia

f (t) =

53

1 Z
F (jw)ejwt dw
2

Supuesto que la integral de Fourier sea convergente, para lo cual debe cumplirse
la condicion de convergencia absoluta
Z

| f (t) | dt <

Esta transformacion o integral de Fourier permite expresar de forma analitica


muchas funciones no periodicas, y de interes especial, que no son expresables
mediante series de Fourier. Tal es, por ejemplo, el caso de la funcion
(

f (t) =

eat t > 0
(a > 0)
0 t<0

La convergencia esta asegurada por:


Z

| f (t) | dt =

Z t
0

"

at

eat
dt =
a

=
0

1
<
a

y la transformada:

F (jw) =

f (t)e

jwt

dt =

Z
0

e(a+jw)t dt =

1
a + jw

Sin embargo, y aunque en muchos casos la Transformada de Fourier es suficiente, en otros casos de interes tales como funciones de tipo polinomico en t no
son convergentes; por ejemplo, para el escalon unitario
(

f (t) = u0 (t) =

1
0

t>0
t<0

la convergencia resulta:
Z

| u0 (t) | dt =

Z
0

dt =

Interpretaciones de la funcion de transferencia

54

y la transformada,

F (jw) =

Z
0

"

jwt

ejwt
dt =
jw

#
0

que solo es convergente para w > 0.

4.2

Funci
on de transferencia en el dominio de la
frecuencia

Si en la funcion de transferencia se hace s = jw esta se convierte en una expresion


compleja H(jw) que tiene la notable propiedad de que, para un cierto valor
de la pulsacion w, su modulo | H(jw) | y su argumento 6 H(jw) representan
precisamente la atenuacion y el desfase que sufre una se
nal sinusoidal de frecuencia
f = 2/w. Este hecho se ilustra en la figura 4.1.
H(j) =| H | 6
y(t)

u(t)
|H|A
A
t

Figura 4.1: Respuesta en frecuencia


Ejemplo:
Considerese el sistema descrito por la ecuacion diferencial,
dy
+ ay = bu
dt

Interpretaciones de la funcion de transferencia

55

sometido a una se
nal sinusoidal, de pulsacion w y de amplitud unitaria. Es
sabido que esta se
nal se puede representar en forma compleja u(t) = ejwt . La
respuesta del sistema, en regimen estacionario, a la anterior se
nal de entrada es
la solucion particular de la anterior ecuacion diferencial la cual se comprueba
facilmente que es,

y(t) =

b
ejwt
(jw) + a

Esta notable propiedad de la funcion de transferencia es la que ha justificado el amplio uso de la misma en el analisis y dise
no de servomecanismos y
reguladores elementales. Notese que esta propiedad lleva implcito un metodo
experimental de medida de la funcion de transferencia de un sistema dinamico.
Este metodo consiste, sencillamente, en la aplicacion de se
nales sinusoidales de
distintas frecuencias, y en la medida, para cada una de ellas, de la atenuacion y
del desfase que sufren al atravesar el sistema. La medida de la atenuacion y del
desfase suministran el modulo y el argumento de H(jw) para el valor de w correspondiente. Existen unos equipos comerciales, denominados servoanalizadores,
concebidos para realizar esta funcion de medicion de los sistemas dinamicos.
No debe, sin embargo, olvidarse que H(s) suministra informacion tanto sobre
el comportamiento en el dominio del tiempo (empleando las tablas de la transformada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). De
ah que la denominacion representaci
on frecuencial no sea del todo apropiada, o
en cualquier caso debe tomarse de forma matizada.

Tema 5
Sistemas din
amicos lineales de
primer orden
5.1

Introducci
on

Se denomina sistema lineal diferencial de primer orden de entrada u(t) y salida


y(t) al sistema regido por una ecuacion diferencial de la forma
dy
+ ay = bu
dt

(5.1)

en donde a y b son dos constantes, denominadas coeficientes de la ecuacion;


u(t) es una se
nal denominada se
nal de entrada o excitacion; e y(t) es otra se
nal
denominada se
nal de salida del sistema. El conjunto se interpreta con un diagrama de bloques tal como el de la figura 5.1. La ecuacion diferencial anterior
admite una solucion u
nica siempre que se fije el valor inicial de y(t). Este valor
inicial se denotara en lo que sigue por . La ecuacion (5.1) establece que la pendiente de y(t) en cada instante de tiempo, es una combinacion lineal de los valores
que toma en este instante u(t) e y(t). En la figura 5.2 se muestran las evoluciones
de u(t) e y(t).
En la practica se presentan m
ultiples sistemas que pueden ser representados
por una ecuacion diferencial de primer orden. De hecho es una de las aproximaciones mas sencillas que se pueden hacer del comportamiento dinamico de
un sistema. En el apartado 5.3 se presentan distintos sistemas que pueden ser
56

Sistemas dinamicos lineales de primer orden

57

representados por una ecuacion diferencial de primer orden.

u(t)

y(t)

Figura 5.1: Sistema de primer orden (1)

5.2

Soluci
on de la ecuaci
on diferencial de primer
orden

Para el estudio de la solucion de la ecuacion diferencial de primer orden, conviene


distinguir dos casos:

5.2.1

Se
nal de entrada nula

En el supuesto de que la se
nal de entrada u(t) sea nula para todo t, la ecuacion
diferencial de primer orden se convierte en
dy
= ay
dt

y(0) =

(5.2)

lo que constituye la parte homogenea de la ecuacion diferencial de primer orden


de (5.1). La solucion de esta ecuacion puede obtenerse por integracion directa
haciendo,
dy
= a dt
y
cuya integracion conduce a,
ln y(t) ln y(0) = at

Sistemas dinamicos lineales de primer orden

58

u(t)

dy(t)
dt

y(t)
t

Figura 5.2: Sistema de primer orden (2)

Sistemas dinamicos lineales de primer orden

59

lo que, teniendo en cuenta que y(0) = , puede escribirse,


yh (t) = eat
El subndice h se refiere a que esta solucion lo es de la parte homogenea de
(5.1).
Las figuras 5.3 y 5.4 muestran la forma general de la evolucion de yh (t) seg
un
que a sea, respectivamente, negativa o positiva. Estas figuras muestran como
se comporta un sistema en ausencia de excitacion. Aparece una clara distincion
entre dos formas de comportamiento que permiten una primera clasificacion de
los sistemas en estables o inestables, seg
un que la evolucion libre de los mismos
tienda a una estado de reposo o no.
y(t)

Figura 5.3: Primer orden divergente

5.2.2

Se
nal de entrada no nula

Se trata de resolver la ecuacion diferencial (5.1) en el caso en que u(t) no sea


identicamente nula. Para simplificar la notacion se escribira v(t) = b0 u(t), con
lo que la ecuacion (5.1) se convierte en
dy
+ ay = v
dt

(5.3)

Sistemas dinamicos lineales de primer orden

60

y(t)

Figura 5.4: Primer orden convergente


Se trata de determinar que funcion w(t) debe sumarse a la solucion homogenea
yh (t) para obtener la solucion de la ecuacion (5.3). Es decir, se supone que y(t)
se descompone en,
y(t) = yh (t) + w(t)
(5.4)
lo que llevado a la ecuacion (5.3) resulta,
d(yh + w)
+ a(yh + w) = v
dt

yh (0) + w(0) =

dyh
dw
+ ayh +
+ aw = v
dt
dt

w(0) = yh (0)

es decir,

que, habida cuenta de la expresion (5.2), se puede escribir,


dw
+aw =v
dt

w(0) = 0

(5.5)

Por lo tanto la ecuacion diferencial que satisface w(t) es exactamente la (5.1),


pero con una notable diferencia, y es que las condiciones iniciales para w(t) son 0.

Sistemas dinamicos lineales de primer orden

61

Es decir, la se
nal w(t) constituye la respuesta del sistema ante la se
nal de entrada
u(t) a partir del reposo.
La discusion anterior permite interpretar la expresion (5.4) diciendo que la
respuesta y(t) de un sistema dinamico lineal a una se
nal de entrada u(t) a partir
de un valor inicial y(0) puede considerarse como la suma de la respuesta del
sistema, a partir del valor inicial y(0), ante una se
nal de entrada nula mas la
respuesta del sistema a la se
nal de entrada u(t) a partir del reposo. Es facil ver
que w(t) viene dada por,
at

w(t) = e

Z t
o

ea v()d

(5.6)

En efecto, en primer lugar es inmediato ver que w(0) = 0. Ademas sustituyendo la expresion (5.6) en la (5.5) se tiene que,

Z t
dw
d Z t a
= a eat
ea v()d + eat
e v() d = a w + v
dt
dt o
o

Combinando los anteriores resultados se tiene que la respuesta de un sistema


regido por una ecuacion diferencial lineal de la forma (5.1) ante una se
nal de
entrada u(t) viene dada por,
at

y(t) = e

at

+e

Z t
o

ea b u() d

(5.7)

A este mismo resultado se puede llegar empleando las tecnicas basadas en


la transformada de Laplace, con las cuales se puede demostrar directamente de
una forma muy sencilla la expresion (5.6). Ademas, en las aplicaciones practicas,
es de esta u
ltima forma como se procede. Sin embargo para un planteamiento
teorico mas general, conviene desarrollar el estudio de los sistemas lineales como
se ha hecho anteriormente.

5.2.3

Respuestas a se
nales de entrada especiales

Se discuten a continuacion las respuestas de un sistema diferencial lineal de primer


orden a se
nales de entrada que presentan especial interes en las aplicaciones como
son las se
nales en escalon, en rampa y sinusoidal.

Sistemas dinamicos lineales de primer orden

62

Se
nal de entrada en escal
on
Se dice que un sistema se somete a una se
nal de entrada en escalon en el
instante inicial t = 0, si en dicho instante se somete el sistema a una variacion
brusca de la se
nal de entrada permaneciendo esta en un valor u(t) = constante.
En la figura 5.5 se representa una se
nal de entrada de esta forma. Si se supone
y(0) = , u = 1, y teniendo en cuenta la expresion (5.7), se tendra,
"

y(t) = e

at

b
b
+ (eat 1) = eat + (1 eat )
a
a

(5.8)

Figura 5.5: Entrada en escalon


En la figura 5.6 se representa la respuesta de un sistema lineal de primer orden
a una entrada en escalon.

t
Figura 5.6: Respuesta al escalon

Sistemas dinamicos lineales de primer orden

63

Para estudiar la respuesta en el tiempo de un sistema lineal de primer orden


a una entrada en escalon, es interesante escribir la ecuacion diferencial de primer
orden de la forma siguiente:

dy
+ y = Ku
dt

(5.9)

en donde = 1/a y K = b/a. Si se supone ademas, para simplificar, que = 0


se tendra que la expresion (5.8) se puede escribir,
t

y(t) = K(1 e )

(5.10)

La constante K recibe la denominacion de ganancia estatica del sistema,


puesto que representa la relacion entre la se
nal de salida (y(t)) y la se
nal de
entrada (u(t)) para t . La constante que tiene una dimension de tiempo,
se llama constante de tiempo del sistema.
El resultado (5.10) puede obtenerse de una forma mas sencilla empleando la
transformada de Laplace. En efecto, la ecuacion diferencial de un sistema de
primer orden viene dada por la expresion (5.1), y puesto que la transformada de
Laplace de una se
nal escalon es:

U (s) =

1
s

se tiene que la de la se
nal de salida sera,

Y (s) =

K
A
B
= +
s(1 + s)
s
1 + s

Las constantes A y B resultan ser:

K
A=

=K
(1 + s) s=0

K
B =
= K
s s= 1

con lo que se tiene Y (s), cuya antitransformada de Laplace resulta ser,


y(t) = L1 [Y (s)] = K(1 et/ )

Sistemas dinamicos lineales de primer orden

64

es decir la expresion (5.1)


En la figura 5.7 se representa la respuesta a una entrada en escalon de un
sistema de primer orden de ganancia K y constante de tiempo .
1.0
0.9
0.8
0.7

y(t)/K

0.637
0.6
0.5
0.4
0.3
0.2
0.1
0.0
0.0

0.4

0.8

1.2

1.6

2.0
1/

2.4

2.8

3.2

3.6

4.0

Figura 5.7: Respuesta a un escalon unitario de un sistema de primer orden de


ganancia K y de constante de tiempo .
La constante de tiempo caracteriza la velocidad de respuesta del sistema, es
decir, la duracion del regimen transitorio. Ello se pone de evidencia por las dos
consideraciones siguientes.
1. Existe una relacion entre la constante de tiempo y la tangente y(t) en el
origen. En efecto de la expresion (5.10) se tiene,
dy
K t
=
e
dt

(5.11)

dy
K
(0) =
dt

(5.12)

haciendo t = 0 se tiene,

lo cual puede interpretarse tal como se hace en la figura 5.8. Recuerdese


que se ha hecho u = 1.

Sistemas dinamicos lineales de primer orden

65

tg =

Figura 5.8: Relacion constante amplificacion y tang.


2. haciendo t = se tiene que la constante de tiempo es el tiempo al cabo del
cual la se
nal de respuesta alcanza la fraccion
1

1
2
0.632
e
3

del valor final (figura 5.9)

K
0.64K

Figura 5.9: Relacion constante de tiempo y amplificacion

Sistemas dinamicos lineales de primer orden

66

Observando la figura 5.7 se tiene que la respuesta de un sistema de primer


orden en una entrada en escalon alcanza su valor final con un error menor del 5
% para un tiempo 3 .
En la figura 5.10 se representan las se
nales de respuesta a una entrada en
escalon para distintos sistemas lineales con diferentes constantes de tiempo.

3
3>2

Figura 5.10: Diferentes constantes de tiempo


En la practica se presenta el problema de determinar el modelo matematico
de un sistema a partir del conocimiento de la respuesta del sistema a una entrada en escalon. En el caso de un sistema de primer orden, la determinacion
de los parametros K y que aparecen en la ecuacion diferencial (5.9), resulta
extremadamente sencilla a partir de la respuesta del sistema a una entrada en escalon. En efecto, de acuerdo con la figura 5.7 el valor de la constante de tiempo
se determina midiendo la abscisa correspondiente a la ordenada que sea el 63,2%
del valor alcanzado por el sistema en regimen estacionario. La constante estatica
K es sencillamente el cociente entre el valor alcanzado por la respuesta en regimen
estacionario y la amplitud de la entrada en escalon.
Se
nal de entrada en rampa
Supongase una se
nal de entrada en rampa, es decir, una se
nal de entrada
cuyos valores crecen lineal con el tiempo, u = t, tal como la que se representa
en la figura 5.11. Se supondra ademas, para simplificar, que = 0. De acuerdo
con la expresion (5.7) se tiene que,
y(t) = wbe

at

Z t
o

wb
d =
a

1
eat
t +
a
a

(5.13)

esta u
ltima expresion introduciendo la ganancia K y la constante de tiempo

Sistemas dinamicos lineales de primer orden

67

, puede escribirse,

y(t) = wK(t + e )

(5.14)

Este mismo resultado se puede obtener con ayuda de la transformada de


Laplace. En efecto, para el caso de una entrada en rampa, se tiene
u
u = t

t
Figura 5.11: Entrada en rampa
U (s) =
con lo que ,
Y (s) =

s2

K
A1 A2
B
= 2 +
+
+ s)
s
s
1 + s

s2 (1

siendo,
"

A1

1
K
=
0! (1 + 2s)
"

A2

= wK
s=0

K
1 d
=
1! ds (1 + s)

B =

K
s2

= K
s=0

s= 1

= K 2

de donde se desprende que y(t) tendra la forma (5.14).


En la expresion (5.14) se observa que el tercer termino del parentesis del
segundo miembro tiende a cero cuando el tiempo tiende a infinito. Este termino

Sistemas dinamicos lineales de primer orden

68

constituye el regimen transitorio de la respuesta total. Una vez desaparecido el


regimen transitorio, la respuesta en regimen permanente sera,
yrp (t) = K(t )

(5.15)

Para interpretar esta respuesta cabe distinguir dos casos:


1. K = 1. En tal caso se tiene que la respuesta viene dada por
yrp = (t )

(5.16)

es decir, en el instante t la salida es igual a la entrada en el instante t .


La salida se encuentra retardada segundos con respecto a la entrada. En
la figura 5.12 se representa la expresion (5.14) para K = 1. Se observa en
esta figura como la se
nal de salida se encuentra retardada con respecto a la
se
nal de entrada. El error en regimen permanente es igual a . Este error
recibe la denominacion de error de arrastre.

u(t)

y(t)

u(t1 ) y(t1 )

Figura 5.12: Respuesta a rampa.


Respecto al regimen transitorio se tiene que para t =
y( ) =

K
K

e
3

(5.17)

es decir, que el sistema ha respondido solo en un tercio del valor alcanzado


por la se
nal de entrada. En la figura 5.12 se interpreta este resultado.

Sistemas dinamicos lineales de primer orden

69

La consideracion del error de arrastre en la respuesta de un sistema de


primer orden, es sumamente importante en ciertos casos como por ejemplo
cuando el sistema en cuestion es un aparato de medida. Supongase un
globo en el que se encuentra un termometro de mercurio. Se supone que
la temperatura vara linealmente con la altura; se tiene entonces que el
termometro se encuentra sometido a una se
nal de entrada en rampa. Las
lecturas del termometro, seg
un las consideraciones anteriores, presentan un
error de arrastre.
2. K 6= 1. La salida y entrada divergen, por lo que el error de arrastre se hace
infinito.

5.2.4

Respuesta arm
onica

Si la se
nal de entrada es sinusoidal, es decir, u = sent y suponiendo = 0, se
tiene que la respuesta del sistema, de acuerdo con la expresion (5.7), viene dada
por
"
at

y(t) = e

wb
b
+ 2
(a senw t w coswt)
2
2
a +w
a + w2

(5.18)

En la figura 5.13 se muestra una forma tpica de esta respuesta.

Figura 5.13: Respuesta armonica.


Para t , es decir un tiempo suficientemente grande, el primer termino
del segundo miembro se anula, por lo que la respuesta en regimen permanente
resulta ser

Sistemas dinamicos lineales de primer orden

yrp (t) =

a2

70

b
(a senwt w coswt)
+ w2

(5.19)

Esta expresion se puede escribir de una forma mas sencilla haciendo,


cos =

a2

a
+ w2

sen =

w
+ w2

a2

(5.20)

con lo que 5.19 puede escribirse,


y(t) = Y sen(wt + )

(5.21)

tag = w/a = w
b
K
Y = 2
=
2
a +w
1 + 2 w2

(5.22)

siendo,

(5.23)

La expresion (5.21) puede interpretarse diciendo que la respuesta de un sistema lineal a una se
nal sinusoidal, es otra se
nal sinusoidal de la misma frecuencia
cuya amplitud ha variado en una relacion Y , y que ha adquirido un desfase .
Tanto la relacion de amplitudes Y como el desfase , son funcion de la frecuencia
angular w de la entrada. En la figura 5.14 se representa Y () y ().
Otra forma de representar graficamente la respuesta en frecuencia de un sistema lineal es por medio de un diagrama polar en el que se representa vectores
cuyos modulos y argumentos son respectivamente Y () y (). Haciendo variar
se obtiene un lugar geometrico, en el que es el parametro. En la figura 5.15
se representa la respuesta en frecuencia correspondiente a un sistema lineal de
primer orden. El lugar esta graduado en frecuencias reducidas (normalizadas)
u = .
Existen otras formas de representar graficamente la respuesta en frecuencia
de un sistema lineal que seran estudiadas mas adelante.
Filtrado con un sistema lineal.
Si la se
nal de entrada a un sistema lineal es una se
nal arbitraria, la reproduccion de la misma a la salida sera muy fiel si la constante de tiempo del sistema
es suficientemente peque
na. Es decir, si la constante de tiempo del sistema es

Relacion de Amplitudes

0.9
0.8

Sistemas dinamicos lineales de primer orden

71

0.7
0.6
0.5
0.4
0.3
0.2
0.1

0.0
0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

2.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

2.0

-10

Fase(grados)

-30
-50
-70
-90
-110
-130
0.0

Figura 5.14: Amplitud y fase.

=0

Figura 5.15: Respuesta en frecuencia.

Sistemas dinamicos lineales de primer orden

72

menor que las mas rapidas variaciones que se produzcan en esta se


nal de entrada.
Lo que a su vez se puede interpretar en el dominio de la frecuencia diciendo que
la constante de tiempo sea lo suficientemente peque
na como para que el ancho de
banda sea lo suficientemente grande para permitir el paso de todos los armonicos
de la se
nal de entrada, (recordar la figura 5.13). La figura 5.16 ilustra este hecho.

pequeo
a)

grande
b)

Figura 5.16: Filtrados.


Por el contrario si la constante de tiempo es grande, la respuesta del sistema
es lenta, por lo que el sistema no puede seguir las variaciones rapidas de la se
nal
de entrada resultando de ello que estas desaparecen de la se
nal de salida. El
sistema act
ua como limando las asperezas de la se
nal de entrada. La figura 5.16
ilustra este hecho que recibe la denominacion de filtrado de la se
nal de entrada.
Se puede dar del mismo una interpretacion en el dominio de la frecuencia similar
a la dada mas arriba para el caso de una constante de tiempo peque
na.
De hecho, el concepto de filtrado de una se
nal es enormemente importante y
lo u
nico que se ha hecho hasta aqu ha sido introducirlo, ilustrando una forma de
comportamiento de los sistemas dinamicos lineales de primer orden.

5.3

Ejemplos de sistemas de primer orden

ectrico LR.
Circuito el
El circuito representado en la figura 5.17 esta regido por una ecuacion diferencial de la forma
L dI
E
+I =
R dt
R

Sistemas dinamicos lineales de primer orden

73

considerando la se
nal de entrada, la tension aplicada al sistema y la se
nal de
salida a la intensidad que recorre el circuito, se tiene un sistema de primer
orden. La ganancia estatica es 1/R y la constante de tiempo es L/R.
L

Figura 5.17: Circuito RL.


Circuito el
ectrico RC.
El circuito de la figura 5.18 es un circuito clasico de carga de un condensador
a traves de una resistencia, siendo la ecuacion diferencial que rige el proceso
la siguiente:
RC

dq
+ q = CE
dt

La ganancia estatica es C, puesto que Q/E es, en regimen permanente, la


capacidad del condensador. La constante de tiempo es RC.
R

C
E

Figura 5.18: Circuito RC.


ometro de mercurio.
Term

E(t)

R, C

q(t)

Sistemas dinamicos lineales de primer orden

74

Un termometro puede considerarse como un sistema en el que la se


nal de
entrada u es la temperatura del medio en el que se encuentra inmerso y la
se
nal de salida y, es la temperatura indicada por el mismo. Si se denota
por Q la cantidad de calor intercambiada entre el medio y el termometro,
y por C la capacidad calorfica de la ampolla, se tendra que
dy
dQ
=C
dt
dt
Por otra parte el flujo de caloras que entra en el mercurio se aporta fundamentalmente por conduccion. De acuerdo con la ley de Newton es aproximadamente proporcional a la diferencia de temperatura entre el medio y el
mercurio.
dQ
= k(u y)
dt
Se concluye de las dos ecuaciones anteriores que un termometro de mercurio
puede considerarse como un sistema lineal de primer orden. Observese que,
como corresponde a un sistema de medicion, la ganancia estatica es k = 1.
Temperatura indicada (y)

Temperatura (u)

Figura 5.19: Termometro de mercurio.


Reacci
on qumica.
Supongase la descomposicion espontanea de una molecula A en dos moleculas
B y C:
A B+C
la cual se efect
ua de manera que la velocidad de reaccion es proporcional al
n
umero de moleculas A presentes.

Sistemas dinamicos lineales de primer orden

75

Si se denota por y la concentracion de la sustancia A, se tiene

dy
= ky
dt

es decir,
1 dy
+y =0
k dt
Se trata de un sistema lineal de primer orden autonomo de constante de
tiempo 1/k. El parametro k se denomina por los qumicos constante de
velocidad de la reaccion, y en la practica presenta una gran dependencia de
la temperatura.
Dinam
ometro.
Se trata de medir la fuerza u por el desplazamiento y que imprime a un
dinamometro de coeficiente de elasticidad k y de coeficiente de viscosidad
, figura 5.20.

Figura 5.20: Dinamometro


Seg
un las leyes de la Mecanica se tiene
u = ky +

dy
dt

Por lo tanto un dinamometro es un sistema de medida lineal de primer


orden.

Sistemas dinamicos lineales de primer orden

76

Mezcla de dos fluidos.


Supongase un recipiente (figura 5.21) en el que se contiene una masa m del
lquido que contiene una fraccion Cr de un componente A, y supongase que
el recipiente se alimenta por un caudal Q de un lquido en el que la fraccion
de componente A es Ce . Se supone que la mezcla es instantanea, es decir,
que la composicion es la misma en todo instante en todo el recipiente. Se
supone ademas que el flujo de entrada es igual al de salida, con lo que
la masa contenida en el recipiente es constante. Es facil ver que en estas
condiciones se tiene,
Ce Q dt = Cr Q dt + M dCr
es decir,

M dCr
+ Cr = Ce
Q dt

Ce

M
Cr
Cr

Figura 5.21: Mezcla de Fluidos.


Se trata por lo tanto de un sistema de primer orden.
Motor el
ectrico de corriente continua.
Supongase el motor electrico de corriente continua cuyo diagrama se ha
representado en la figura 5.22. El par motor supuesto el flujo constante,
viene dado por

Sistemas dinamicos lineales de primer orden

77

P = k I
Por otra parte la intensidad I de inducido y la tension que alimenta al
inducido u (se
nal de entrada), estan relacionadas por la siguiente ecuacion.
u = RI + L

dI
+ K
dt

De acuerdo con las leyes de la Mecanica el par motor P y la velocidad de


salida del motor , estan ligados por la ecuacion,
P =J

d
+ B
dt

Figura 5.22: Motor electrico.


De las tres ecuaciones anteriores se obtiene,
J

+ (B + kK ) = k u
dt
R
R

es decir, considerando como se


nal de entrada la tension aplicada al inducido
y como se
nal de salida la velocidad de giro del motor, se tiene un sistema
de primer orden.

5.4

El sistema de primer orden como integrador

En los apartados anteriores se ha considerado un sistema lineal de primer orden


como el regido por una ecuacion diferencial de la forma 5.1. Esta misma ecuacion
puede escribirse tambien de la forma siguiente:

Sistemas dinamicos lineales de primer orden

y(t) = y(0) +

Z t
0

78

(bu ay)dt

(5.24)

La consideracion de esta segunda forma de escribir la ecuacion que rige el


comportamiento de un sistema lineal de primer orden es sumamente interesante,
por cuanto que su sentido fsico es mas claro. La accion del sistema puede descomponerse en dos partes:
Una parte estatica (sin memoria) en la que se determina
f = bu ay

(5.25)

Los valores de f determinados para cada instante de tiempo t se van acumulando (integrando) dando con ello lugar a la variable de salida y.
En la figura 5.23 se tiene representado un esquema en el que se distinguen la
parte estatica del integrador. La parte estatica puede ser no lineal, sin que por
ello se alteren las anteriores consideraciones.
Esta manera de interpretar el funcionamiento de un sistema lineal de primer
orden, es mas intuitiva desde un punto de vista fsico por cuanto que en la naturaleza es mas facil interpretar los procesos en terminos de integraciones que de
diferenciaciones. De hecho la integracion (acumulacion) es un proceso normal del
que es muy sencillo encontrar ejemplos, mientras que la diferenciacion es enormemente mas artificiosa. No debe olvidarse sin embargo, que la resolucion de una
ecuacion diferencial es mas simple que la de una ecuacion integral, y es por ello
que en cualquier caso el planteo por ecuaciones diferenciales es mas frecuente que
el que aqu se presenta.

1
S

Figura 5.23: Integrador.

Tema 6
Sistemas din
amicos lineales de
segundo orden y de orden y
superior
6.1

Definici
on

Se define un sistema lineal de segundo orden como el regido por una ecuacion
diferencial de la forma,
d2 y
dy
du
+ a1
+ a2 y = b0
+ b1 u
2
dt
dt
dt

(6.1)

En lo que sigue se considerara u


nicamente el caso en que b0 = 0 y b1 = ,
dejandose para mas adelante el estudio del caso general.
El problema del estudio de un sistema de segundo orden queda reducido a
la resolucion de la anterior ecuacion diferencial cuando la se
nal de entrada u(t)
se particulariza en una cierta funcion del tiempo. Para que la solucion este
completamente determinada se requiere el conocimiento de los valores iniciales
de y(t) y de dy/dt. En esta seccion se puede hacer un desarrollo completamente
paralelo al realizado en la seccion anterior para los sistemas de primer orden. La
complejidad de tratamiento algebraico que esto requiere es grande, y es por ello
por lo que se va a estudiar sencillamente los casos simplificados que ofrecen mayor
interes practico.
En este sentido, y como primera hipotesis simplificadora, se va a suponer
79

Sistemas dinamicos lineales de segundo orden y de orden y superior

80

siempre que se trabaja con unas condiciones iniciales nulas.


La ecuacion diferencial de un sistema de segundo orden que se va a considerar
aqu es,
d2 y
dy
+ a1
+ a2 y = u
(6.2)
2
dt
dt
La ecuaci
on caracterstica de un sistema de segundo orden se define como:
r2 + a1 r + a2 = 0

(6.3)

la cual se puede escribir tambien, en el supuesto de que sus raices sean p1 y


p2 , de la forma siguiente,
(r + p1 ) (r + p2 ) = 0

(6.4)

Otra forma frecuente de escribir la ecuacion diferencial de un sistema de segundo orden es la siguiente,
d2 y
dy
+
2

+ n2 y = n2 k u(t)
n
dt2
dt

(6.5)

Esta forma es especialmente u


til cuando se trata con sistemas cuyas raices de
la ecuacion caracterstica son complejas. Los parametros que intervienen en esta
forma reciben una denominacion especial.
El parametro k recibe la denominacion de ganancia estatica, y es una constante que carece de dimensiones.
El parametro n recibe el nombre de frecuencia propia no amortiguada y
se expresa en radianes por segundo.
El parametro recibe el nombre de factor de amortiguamiento, y es un
n
umero sin dimensiones.
Las relaciones que ligan a los parametros de la forma (6.2) con los de la forma
(6.5) son las siguientes.

Sistemas dinamicos lineales de segundo orden y de orden y superior


s

n =

1
a2

k=

n2

a1
2n

81

(6.6)

Los parametros k, n y son, normalmente, positivos.


Una ecuacion diferencial de orden n puede descomponerse en n ecuaciones
diferenciales de primer orden. Este es un resultado conocido que por otra parte
sera estudiado con detalle en un captulo posterior. Aqu se va a estudiar el caso
n = 2; introduciendo las variables adicionales x1 y x2 , y siendo p1 y p2 las raices
de la ecuacion caracterstica, es facil ver que una ecuacion diferencial de segundo
orden del tipo 6.2 se puede escribir,
x 1 = p1 x1 + u
x 2 = p2 x2 + u
y = c1 x1 + c2 x2
siendo
c1 =

p2 + p1

c2 =

(6.7)
(6.8)

p1 p2

(6.9)

Para comprobar este resultado basta proceder por sustitucion, lo que se invita
a hacer al lector. Mas adelante se estudiara el procedimiento general que permite
este tipo de descomposiciones.
Empleando el calculo matricial, las expresiones 6.7, 6.8 y 6.9 pueden escribirse
de la forma siguiente,
x = Ax + Bu
y = Cx

(6.10)

en donde
"

A=

p1 0
0 p2

"

B=

1
1

C = [c1 c2 ]

(6.11)

La ecuacion diferencial de la expresion 6.10 es de la misma forma de la 5.1,


con la diferencia de que mientras all se trataba con escalares aqu se trata con
vectores y matrices. Por lo tanto, el desarrollo realizado al estudiar los sistemas
de primer orden, puede generalizarse al de los sistemas de segundo orden, sin mas

Sistemas dinamicos lineales de segundo orden y de orden y superior

82

observacion que tener presente que la diferencia basica que existe entre el algebra
de los n
umeros reales y la de las matrices, es que esta u
ltima no es conmutativa.
La respuesta de un sistema de segundo orden ante una se
nal de entrada u(t),
a partir del estado x(t), vendra dada por,

y(t) = CeAt +

Z t
0

eA B u() d

(6.12)

En esta expresion aparece la exponencial eAt , cuyo significado sera discutido


mas adelante.
A partir de la expresion 6.12 se puede estudiar la respuesta de un sistema
de segundo orden ante distintos tipos de se
nales de entrada, tal como se hizo
anteriormente para los sistemas de primer orden.
En lo que sigue se estudiara exclusivamente la respuesta de un sistema de
segundo orden a una entrada en escalon, por ser la que mas interes tiene desde
un punto de vista practico. La respuesta para otro tipo de entradas, como la
entrada en rampa o la entrada sinusoidal, pueden ser obtenidas de forma analoga
a como se obtiene la respuesta a una entrada en escalon.

6.1.1

Respuesta de un sistema de segundo orden a una


entrada en escal
on

Se supondra que las condiciones iniciales son nulas, = 0. A partir de la expresion


6.12 se tendra,
Z
t

y(t) = C eAt

eA B u()d

(6.13)

La entrada en escalon es constante desde t = 0 hasta infinito. Por lo tanto se


tendra que,
u() = u = const
(6.14)
A partir del concepto de funcion de una matriz diagonal se puede escribir,
"

At

ep1 t 0
0 ep2 t

(6.15)

Sistemas dinamicos lineales de segundo orden y de orden y superior

83

con lo que se tiene,


Z t
0

"

B u() d =

pu1 (1 ep1 t )
pu2 (1 ep2 t )

(6.16)

Recordando la expresion 6.8 se tiene,


y(t) = C1

u
u
(1 ep1 t ) + C2 (1 ep2 t )
p1
p2

"

(6.17)
#

u
u
y=
(1 ep2 t )
(1 ep1 t ) +
p1 (p2 p1 )
(p1 p2 )p2

Haciendo, sin perdida de generalidad, u = 1 y tras una serie de manipulaciones


algebricas, se puede escribir,

y(t) =

ep1 t
ep2 t
p1 p2 (p2 p1 )p1
p2 (p1 p2 )

(6.18)

Si se escribe la ecuacion diferencial de segundo orden en la forma dada por la


expresion 6.5 se tendra que las raices de la ecuacion caracterstica p1 y p2 vendran
dadas por:

p1 = n n 2 1

p2 = n + n 2 1
(6.19)
Observese que,
p1 p2 = n2

= n2

p2 p1 = 2n

2 1

(6.20)

Este mismo resultado se puede alcanzar con mayor sencillez operativa empleando la transformada de Laplace. En efecto, teniendo en cuenta que la transformada de Laplace de una entrada en escalon es U (s) = 1/s, se tiene que, de
acuerdo con la expresion 5.2, la transformada de Laplace de la salida y(t) resulta

Y (s) =

1
s

n2
s2 + 2n s + n2

Sistemas dinamicos lineales de segundo orden y de orden y superior

u(t)
y(t)

a)

n t

u(t)
y(t)

b)

n t
1.38

y(t)

u(t)

c)

n t
3.3
Figura 6.1: Respuesta sistema de segundo orden

84

Sistemas dinamicos lineales de segundo orden y de orden y superior

85

cuya antitransformada de Laplace resulta ser,


en t
y(t) = 1
sen (0 t + )
1 2
siendo,
0 = n

t1
g

1 2

factor de amortiguamiento
En el estudio de la respuesta a una se
nal de entrada en escalon de un sistema
de segundo orden pueden distinguirse tres casos seg
un que el factor de amortiguamiento sea mayor, menor o igual que uno.
1. Factor de amortiguamiento mayor que la unidad
A partir de la expresion 6.18 teniendo en cuenta las expresiones 6.20 se tiene
que,

h
i1

2
y(t) = 1 + 2( 2 2 1 1)
e( 1)n t

h
i1

2
+ 2( 2 + 2 1 1)
(6.21)
e(+ 1)n t
Esta expresion suministra la forma analtica de la respuesta de un sistema
de segundo orden, con factor de amortiguamiento mayor que la unidad, a
una entrada en escalon. En la figura 6.1 se representa la forma general de
esta respuesta; desde un punto de vista cualitativo la caracterstica esencial
de esta respuesta es su caracter de lentitud en alcanzar el valor y = 1.
2. Factor de amortiguamiento menor que la unidad
Si el factor de amortiguamiento es menor que la unidad, es decir, < 1,
entonces sucede que las raices p1 y p2 son complejas. En la figura 6.2 se
representa la situacion de las raices p1 y p2 en el plano complejo.
La consideracion del angulo , tal como se ha indicado en la figura 6.2
permite escribir,

(6.22)
cos =
sen = 1 2
Escribiendo las expresiones 6.19 y 6.20, empleando en las mismas el angulo
, se tiene:
p1 = n ej
p2 p1 = 2n jsen
(6.23)

Sistemas dinamicos lineales de segundo orden y de orden y superior

86

Im

jn 1 2
n

Re

jn 1 2

Figura 6.2: Raices complejas


La expresion 6.18 se puede escribir, teniendo en cuenta la expresion 6.23 de
la forma siguiente,
ej (n jn 12 )t
e
2jsen
ej (n jn 12 ) t

e
2jsen

y(t) = 1 +

(6.24)

Esta expresion puede escribirse en forma mas compacta como sigue:

en t
y(t) = 1 +
sen(
1 2 t )
n
2
1

(6.25)

Esta expresion suministra la forma analtica en la respuesta de un sistema


de segundo orden, con factor de amortiguamiento menor que la unidad,
a una respuesta en escalon. La forma general de la respuesta se tiene en
la figura 6.1, en la que se observa que el comportamiento de un sistema
de segundo orden con factor de amortiguamiento menor que la unidad esta
caracterizado por la presencia de oscilaciones. Esta forma de respuesta, que
se caracteriza por una sinusoide exponencialmente amortiguada, se dice que
es subamortiguada.

Sistemas dinamicos lineales de segundo orden y de orden y superior

87

El valor del primer pico de sobreoscilacion, y el instante de tiempo en que


se produce, son dos tipos de caractersticas muy interesantes para definir
el comportamiento de un sistema de segundo orden. De la observacion de
la expresion 6.25 se desprende que la frecuencia de oscilacion del sistema
viene dada por,
p = n

1 2

(6.26)

La frecuencia p se denomina frecuencia propia del sistema. El periodo de


oscilacion del sistema viene dado por
Tp =

n 1 2

(6.27)

Instante de tiempo al cual se produce el primer pico de oscilacion del sistema, puede obtenerse, de una forma analtica, derivando y(t) con relacion
al tiempo, e igualando esta derivada a cero. En efecto, se tiene:

dy(t)
n en t
2 t)+ en t cos(
=
sen(
1

1 2 t) = 0
n
n
n
dt
1 2
(6.28)
Esta derivada se anulara cuando,
n

1 2 t = 0, , 2, ..

por lo tanto, el primer pico de oscilacion se producira cuando ,


tp =

n 1 2

(6.29)

El tiempo tp recibe la denominacion de tiempo de pico. Llevando el valor


de tp a la expresion 6.25 se tiene,

e/ 1
sen( )
ymax (t) = 1 +
1 2

(6.30)

la cual, habida cuenta de que,


sen( ) = sen y
puede escribirse,

sen =

ymax (t) = 1 + e

1 2

(6.31)

1 2

(6.32)

Sistemas dinamicos lineales de segundo orden y de orden y superior

88

Normalmente se expresa la amplitud de la primera oscilacion en % del valor


del escalon de entrada. Genericamente se suele denominar sobreoscilaci
on
a este tanto por ciento. Por lo tanto se puede escribir:

SO = 100 e

(6.33)

1 2

En la figura 6.3 se representa la sobreoscilacion, en funcion del factor de


amortiguamiento, para sistemas de segundo orden.
Es interesante considerar el problema de determinar los parametros a1 , a2
y de la ecuacion 6.2 a partir del conocimiento de la respuesta del sistema
a una entrada en escalon especialmente en el caso de un sistema subamortiguado.
3. Factor de amortiguamiento igual a la unidad
En el caso de que el factor de amortiguamiento sea igual a la unidad, es decir
= 1, se tendra que las dos raices de la ecuacion caracterstica seran iguales
entre s, es decir, p1 = p2 es una raiz doble de la ecuacion caracterstica. En
tal caso, las constantes c1 y c2 que aparecen en la expresion 6.8 no estan
definidas, como se concluye observando las expresiones 6.9. Es decir, que la
anterior discusion solo era valida cuando las dos raices p1 y p2 eran distintas.
Para poder aplicar el anterior razonamiento al caso de que las dos raices
sean iguales, se procede a suponer, en principio, que estas son diferentes
entre s en una peque
na cantidad , que posteriormente se hace tender a
cero. Supongase, por lo tanto que las dos raices son:
p1 = p
p2 = p +
Llevando estos dos valores a los terminos segundo y tercero, del segundo
miembro, de la expresion 6.18 se tiene,
b
pt
e
e(p+)t = ept
p
(p + )

"

1
et

p (p + )

(6.34)

Interesa determinar el lmite de esta expresion cuando tiende a cero. Para


ello se procede, por ejemplo, a desarrollar en serie et y tras una serie de
sencillas manipulaciones se obtiene,
"

lim

et
1 tp
1

=
p (p + )
p2

(6.35)

Sistemas dinamicos lineales de segundo orden y de orden y superior

89

Con este resultado es inmediato obtener que la respuesta a una entrada en


escalon del sistema con factor de amortiguamiento igual a la unidad, viene
dada por,
y(t) = 1 n ten t en t

(6.36)

Esta respuesta se ha representado en la figura 6.1. Esta respuesta se dice


que esta crticamente amortiguada.

100

Sobreoscilacion

80

60

40

20

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1.0

Figura 6.3: Sobreoscilacion en funcion del factor de amortiguamiento


En la figura 6.4 se representan las respuestas a una entrada en escalon para
distintos valores del factor amortiguamiento. Se observa como factores de amortiguamiento inferiores a la unidad, se tiene un comportamiento oscilatorio, el cual
es mas oscilante cuanto menor es el valor de . Por otra parte, para valores del
amortiguamiento mayor que la unidad, se tienen respuestas sin sobreoscilacion,
pero que son considerablemente mas lentas. Esto u
ltimo hace que las aplicaciones practicas se tienda siempre a tener respuestas amortiguadas, puesto que
son mas rapidas, aunque siempre manteniendo oscilaciones dentro de unos lmites
razonables.

Sistemas dinamicos lineales de segundo orden y de orden y superior

90

2.0
1.8
=0.1

1.6
1.4

y(t)

1.2

0.5
0.7

1.0

1.0
1.2
1.5
2.0

0.8
0.6

5.0

0.4
0.2
0.0
0.0

1.2

2.4

3.6

4.8

6.0
nt

7.2

8.4

9.6

10.8

12.0

Figura 6.4: Respuesta ante escalon en funcion del factor de amortiguamiento

Sistemas dinamicos lineales de segundo orden y de orden y superior

6.1.2

91

Respuesta en frecuencia de un sistema de segundo


orden

Si se aplica una se
nal sinusoidal a un sistema de segundo orden, es decir, si u(t) =
Vo sent, la determinacion de la se
nal de salida y(t) se puede hacer procediendo
en forma similar a como se hizo en el apartado anterior. Aqu sin embargo
se procedera exclusivamente a estudiar el regimen transitorio que resulta de la
aplicacion de la se
nal sinusoidal. Es decir, se va a determinar exclusivamente la
solucion particular de la completa cuando en la expresion 6.2 se hace u = Vo sent.
Se tiene que y(t) sera de la forma,
y(t) = Yo sen(t + )

(6.37)

siendo
Vo
Yo = q
(a2 )2 + a21 2
h

= tg1 a1 /(a2 2 )

(6.38)
(6.39)

Este resultado se puede comprobar por sustitucion.


Se ha tomado como se
nal de entrada una se
nal sinusoidal de amplitud unitaria
para que la amplitud de la se
nal de salida suministrase directamente la relacion
de amplitudes entre las se
nales de entrada y salida. En las figuras 6.5 y 6.6 se
representan las relaciones de amplitudes y los desfases correspondientes a distintos
valores del factor de amortiguamiento.
Se observa como la forma de la respuesta en frecuencia del sistema de segundo
orden depende del factor de amortiguamiento. Cuanto menor es este, mayor es
el pico de resonancia que presenta la respuesta en frecuencia. El efecto de resonancia indica que para determinada frecuencia la amplitud de la se
nal sinusoidal
correspondiente, en el espectro de frecuencias, sufre una amplificacion al atravesar
el sistema.
El valor maximo de la amplitud de la respuesta en frecuencia, recibe la denominacion de factor de resonancia. Es facil demostrar que el factor de resonancia
viene dado por,

Q=

1
1 2

(6.40)

Sistemas dinamicos lineales de segundo orden y de orden y superior

92

La frecuencia a la que se produce este maximo, que recibe la denominacion


de frecuencia de resonancia, viene dada por,
R = n

1 2 2

(6.41)

Se observa que cuando el factor de amortiguamiento es nulo la frecuencia de


resonancia coincide con la frecuencia propia no amortiguada del sistema. De ah
la denominacion de esta u
ltima.
5
=0.1

RELACION DE AMPLITUDES

3
0.2

0.3
0.4
0.5

1
5.0
0
0.0

2.0

0.5

1.0

0.707

1.0
1.5
PULSACION /n

2.0

2.5

Figura 6.5: Amplitudes correspondientes a distintos factores de amortiguamiento.

6.1.3

Ecuaciones diferenciales de orden n

Una vez estudiado los sistemas de primero y segundo orden, conviene recordar
los resultados correspondientes a sistemas de orden n. Supongase que el modelo

Sistemas dinamicos lineales de segundo orden y de orden y superior

93

0.

0.1

0. 0.3
5
0.
70
7 0.4
1.
0
2.
0

-30

-60

DESFASE

5.

=5.

-90

2.0
-120

-150

-180
0.0

0.1

0.5

1.0

0.7 1.0
07
0.5
0 0.
0.2 .3 4

1.5
2.0
2.5
PULSACION /n

3.0

3.5

Figura 6.6: Desfases correspondientes a distintos factores de amortiguamiento.

4.0

Sistemas dinamicos lineales de segundo orden y de orden y superior

94

matematico del sistema que se esta considerando tiene la forma,

dn y
dn1 y
dy
dm u
+
a
+

+
a
+
a
y
=
b
+ + bm u
1
n1
n
o
dtn
dtn1
dt
dtm

(6.42)

en donde, por razones de realizabilidad fsica que se consideraran mas adelante,


n > m. Si las condiciones iniciales son nulas, su transformada de Laplace es

Y (s)(sn + a1 sn1 + + an1 s + an ) = U (s) (bo sm + b1 sm1 + + bm ) (6.43)


por lo tanto, la transformada de Laplace de la salida del sistema y(t), correspondiente a una entrada u(t), cuya transformada es U (t) = L [u(t)] resulta ser
bo sm + b1 sm1 + + bm
Y (s) = n
U (s)
s + a1 sn1 + + an1 s + an

(6.44)

Puesto que U (s) se supone conocido, el problema es el de determinar Y (s),


problema que se reduce al calculo de la antitransformada de Y (s). Para las
funciones normalmente empleadas en Automatica U (s) es el cociente de dos polinomios en s, por lo que Y (s) sera a su vez el cociente de dos polinomios, es
decir,

Y (s) =

Q(s)
Q(s)
=
P (s)
(s p1 )n1 (s p2 )n2 . . . (s pq )np

(6.45)

El polinomio del denominador U (s) se ha factorizado, siendo pi las raices de


la ecuacion P (s) = 0, que recibe la denominacion de polos de Y (s). Para mayor
generalidad, se ha supuesto que cada uno de los polos tiene una multiplicidad ni
aunque normalmente ni = 1, para todo i.
El cociente de polinomios Y (s) se puede descomponer en fracciones simples,
escribiendose,
q X
ni
X
cik
Y (s) =
(6.46)
k
i=1 k=1 (s pi )
en donde los coeficientes cik reciben la denominacion de residuos de Y (s) en
el polo pi . Los residuos se calculan con ayuda de la expresion

Sistemas dinamicos lineales de segundo orden y de orden y superior

1
cik =
(ni k)!

!
i
dnik h

ni
(s pi ) Y (s)
nik
ds
s=pi

95

(6.47)

Si todos los polos son simples, es decir, si todos los valores de ni son igual a
la unidad, entonces la expresion 6.46 se escribe

Y (s) =

q
X
i=1

ci1
s pi

(6.48)

y los residuos se determinan por la expresion


cik = ci1 = (s pi ) Y (s) |s=pi

(6.49)

expresiones que no son sino particularizaciones para ni = 1 de las correspondientes expresiones 6.46 y 6.47.
En el caso de polos simples, los residuos pueden determinarse de forma grafica
sobre el plano complejo. Para ello, en primer lugar, considerese que Y (s) puede
escribirse

Y (s) =

k m
i=1 (s zi )
n
i1 (s pi )

(6.50)

en donde se ha factorizado tambien el polinomio del numerador. Por zi se


denotan las raices de la ecuacion P (s) = 0 y estas raices se denominan ceros del
sistema. Puesto que Y (s) es, en general, una funcion compleja, se puede escribir,
Y (s) =| Y | ej =| Y |
6

(6.51)

en donde | Y (s) | es el modulo (valor absoluto) de Y (s) y es el argumento


de Y (s), siendo
#
"
Im{Y (s)}
1
= tan
Re{Y (s)}
La expresion compleja Y (s), de acuerdo con la expresion 5.8, puede escribirse

Sistemas dinamicos lineales de segundo orden y de orden y superior

Qm

Y (s) = Qni=1
i=1

m
n
X
| s zi | X
6 (
iz
ip )
| s pi |
i=1
i=1

96

(6.52)

es decir, puesto que Y (s), de acuerdo con la expresion 6.52, se determina como
el cociente de dos expresiones complejas, cada una de las cuales es a su vez el
producto de terminos elementales de la forma (s pi ) el modulo de Y (s) sera el
cociente de los productos de los respectivos modulos, mientras que el argumento
sera la diferencia de las sumas de los correspondientes argumentos.
Interesa por tanto, representar en el plano complejo, los componentes elementales (s zi ) y (s pi ) con el fin de determinar sus modulos y argumentos para
poder realizar con ellos las operaciones de multiplicacion y adicion a las que se
acaba de aludir.
En la figura 6.1.3 se muestra la representacion grafica del vector asociado a
(s zi ) y a (s pi ). En el caso de (si zi ) se tiene un vector que va desde el
cero, zi al punto s, y analogamente para pi .
Im

s Pi
Pi

s
s Zi
Zi
Re

Figura 6.7: Vectores asociados


El residuo ci1 = ci , correspondiente al polo pi , resulta ser de acuerdo con la
expresion 6.49,

ci = (s pi ) Y (s) |s=pi

k(s pi ) m
i=1 (s zi )
=

ni=1 (s pi )
s=pi

Sistemas dinamicos lineales de segundo orden y de orden y superior

97

cuya determinacion grafica puede hacerse siguiendo los siguientes pasos:


1. dibujar en el plano complejo los ceros, ci y los polos pi de Y (s).
2. dibujar los vectores desde todos los polos y ceros al polo pi en el que se esta
determinando el residuo.
3. determinar el modulo del residuo | ci | multiplicando los modulos de todos
los vectores desde los ceros y dividiendolos por el producto de los modulos
de todos los vectores desde los polos.
4. determinar el argumento del residuo 6 ci sumando los argumentos de los
vectores desde los ceros y restandole la suma de los argumentos de los
vectores desde los polos.

Tema 7
Representaci
on gr
afica de la
funci
on de transferencia
Es usual emplear representaciones graficas de la funcion de transferencia. Ello es
especialmente patente en los metodos clasicos, en los que se trabaja en el dominio
de la frecuencia. Vamos a ver algunas de las formas de representacion graficas
mas usuales.

7.1
7.1.1

Diagramas m
as comunes
Diagrama de polos y ceros: caso racional

Sea la funcion de transferencia


G(s) =

K(s + c1 ) . . . (s + cm )
(s + p1 ) . . . (s + pn )

Se puede representar G(s) indicando la posicion de sus ceros ci y de sus polos


pi en el plano de la variable compleja s (fig. 7.1).

98

Representacion grafica de la funcion de transferencia

99

Im

K
Re

Figura 7.1: Diagrama de polos y ceros

7.1.2

Diagrama de Nyquist

La funcion de transferencia G(s) se representa mediante una curva en un diagrama


polar. Esta curva se construye representando para cada valor de el modulo y
el argumento de la expresion compleja que resulta de hacer s = j en G(s).
Como se sabe, el modulo y el argumento de G(j) representan la amplificacion
(o atenuacion) y el desfase de una se
nal sinusoidal que atraviese el sistema. En la
figura 7.2 se representa un diagrama de esta naturaleza. Conviene observar que
vara de 0 a .
Im
=0

Re
= 100
=1
= 10

Figura 7.2: Diagrama de Nyquist

El diagrama de Nyquist es por tanto una curva parametrizada en que, para


cada punto (es decir, para cada frecuencia), da el modulo y el argumento de la
funcion de transferencia.

Representacion grafica de la funcion de transferencia

7.1.3

100

Diagrama logartmico o de Bode

En este caso, la funcion de transferencia G(s) se representa mediante el conjunto


de las dos curvas siguientes (fig. 7.3):
log |G(j)|

log

Arg G(j)

log

-180

Figura 7.3: Diagrama logartmico

Curva de amplitud: log |G(s)| en funcion de log ;


Curva de fase: arg G(s) en funcion de log .
El empleo de logaritmos para representar los modulos permite facilitar la combinacion de funciones de transferencia en serie, ya que en tal caso el producto de
los modulos se convierte en la suma de sus logaritmos.
Conviene recordar que la medida logartmica de la relacion entre dos se
nales
A se expresa en
decibelios (dB), 20 log10 A
decadas log10 A
octavas log2 A

Representacion grafica de la funcion de transferencia

101

Este conjunto de curvas, como veremos a continuacion, es el mas utilizado en


la practica para representar graficamente la funcion de transferencia.

7.1.4

Diagrama de Black

En este diagrama se representa la funcion de transferencia G(s) mediante una


curva parametrizada en en un plano cuyos ejes de coordenadas estan definidos
por arg(G(j)) y 20 log10 A (fig: 7.4).
log|G(j)|
=1

-180

-90

0
Arg G(j)

Figura 7.4: Diagrama de Black

7.2

Diagrama de Bode

Como se ha indicado mas arriba, el diagrama de Bode consiste en la representacion


grafica de la funcion de tranferencia mediante dos curvas, una relativa a la amplitud y la otra a la fase. En ambas curvas, en abcisas se representa el logaritmo de
. En coordenadas se representa en un caso la relacion de amplitudes en escala
logartmica, mientras que en el segundo la fase en escala natural (en grados o en
radianes).
La representacion de una funcion de transferencia G(s) en el diagrama de
Bode se hace mediante unas aproximaciones asintoticas que simplifican enorme-

Representacion grafica de la funcion de transferencia

102

mente su trazado. Para estudiar estas aproximaciones consideremos la funcion


de transferencia
k(j + c1 )(j + c2 ) . . .
G(j) =
(j)N (j + p1 )(j + p2 ) . . .
La denominada forma de Bode de esta funcion de tranferencia es la siguiente

j
j
ci
1+
1+
...
k
pj
c1
c2
!

G(j) =
j
j
1+
...
(j)N 1 +
p1
p2

(7.1)

en donde la denominada ganancia de Bode viene dada por


kB = k

ci
pj

La expresion (7.1) es una expresion compleja en funcion de . Es decir, para


cada valor de tomara un valor complejo y, por tanto, tendra un modulo y un
argumento. El modulo sera tal que si tomamos su logaritmo se podra escribir

20 log |G(j)| = 20 log |kB | + 20 log 1 +


+ ...
c
1

1
1

! + . . .
+20 log
+ 20 log
N
(j)
j

1+

p1

(7.2)

mientras que el argumento sera

20 arg G(j) = 20 arg kB + 20 arg 1 +


+20 arg

j
+ ...
c1

1
1
! + ...
+ 20 arg
N
(j)
j
1+
p1

(7.3)

Observese que mediante la adopcion de una escala logartmica para el modulo se


ha descompuesto aditivamente en las aportaciones de cada uno de los elementos
que aparecen en (7.1).
Esta descomposicion aditiva, junto con la que se da de una manera natural para el argumento, permite que se obtenga la representacion grafica en el
diagrama de Bode a partir de la representacion grafica de cada uno de los elementos que aparecen en (7.1). Vamos a ver a continuacion como se representa
graficamente cada uno de estos elementos.

Representacion grafica de la funcion de transferencia

7.2.1

103

Diagrama de Bode de una constante

La representacion en el diagrama de Bode de una constante es inmediata y se


tiene en la figura 7.5.

K>1

Amplitud(dB)

20logK

K<1

-20logK

K(numero positivo)

Fase(grados)

0.0

-90.0

K(numero negativo)
-180.0
(rad/s)

Figura 7.5: Diagrama de Bode de una constante

7.2.2

Diagrama de Bode de una integraci


on pura

El diagrama de Bode de una integracion pura


G(j) =

1
j

viene dada por una recta de pendiente -20 decibelios por decada (o -6 decibelios
por octava) y con un desfase constante igual a -90 grados

7.2.3

Diagrama de Bode de un sistema de primer orden

Sea el sistema de funcion de transferencia


1
1+

j
p

Representacion grafica de la funcion de transferencia

104

Amplitud (dB)

20
0
-20dB/dec

-20
-40

Fase(grados)

90

-90

-180 -1
10

10

10

10

(rad/s)

Figura 7.6: Diagrama de Bode de una integracion pura


Para estudiar su representacion en el diagrama de Bode consideraremos, en primer
lugar, dos situaciones extremas:

p
En tal caso se tendra que
1

20 log |

1+

j
p

| 20 log 1 = 0dB

p
en cuyo caso
20 log |

1
j
1+
p

| 20 log |

| = 20 log
j
p
p

Por tanto, la representacion grafica del modulo de G presenta dos asntotas. Para
valores bajos de la asntota es sencillamente la recta horizontal trazada en 0
dB; mientras que para valores altos de la frecuencia la asntota es una recta de
pendiente -20 dB/decada. Estas dos asntotas se cortan en el punto = p.
Para completar la curva podemos considerar dos puntos interesantes:

Representacion grafica de la funcion de transferencia

105

Amplitud(dB)

20

0
1dB
-20

3dB

1dB

-40

Fase(grados)

-45

-90 -1
10

10

10

10

(rad/s)

Figura 7.7: Diagrama de Bode de un sistema de primer orden


para /p = 0.5 se tiene |G(j)| = 1 dB.
para /p = 1 se tiene |G(j)| = 3 dB.
Por lo que respecta a la fase no es posible hacer unas aproximaciones asintoticas
como las que acabamos de ver para la amplitud. No obstante, se dispone de una
plantilla que permite trazar la curva de fase correspondiente.

7.2.4

Diagrama de Bode de una diferenciaci


on pura

El diagrama de Bode de un diferenciador puro


G(j) = j
se obtiene de forma similar al de un integrador puro. En la figura 7.8 se representa
el diagrama correspondiente. En este caso la curva de amplitud tiene pendiente
positiva y la de fase es positiva.

Representacion grafica de la funcion de transferencia

106

Amplitud(dB)

40
20
+20dB/dec
0
-20

Fase(grados)

90

45

0 -1
10

10

10

10

(rad/s)

Figura 7.8: Diagrama de Bode de una diferenciacion pura

7.2.5

Diagrama de Bode del t


ermino asociado a un cero

El termino asociado a un cero


G(j) =

j
+1
p

conduce, por consideraciones analogas a las que se han hecho para un sistema de
primer orden (asociado a un polo), tiene la forma que se muestra en la figura 7.9.
Combinando todo lo que se acaba de ver, y teniendo en cuenta las expresiones
(7.2 y (7.3), se puede obtener la representacion grafica de la funcion de transferencia del sistema cuya funcion de transferencia viene dada por la expresion
(7.1).

7.3

Sistemas de fase mnima

Un sistema con un cero con parte real positiva recibe la denominacion de sistema
de fase no mnima, mientras que si todos ceros tienen parte real negativa recibe
la denominacion de sistema de fase mnima. En los sistemas de fase no mnima
el valor que toma la fase es mayor, para un mismo valor de la frecuencia, que

Representacion grafica de la funcion de transferencia

107

Amplitud(dB)

40

+20dB/dec
20
1dB

3dB

1dB

Fase(grados)

90.0
67.5
45.0
22.5
0.0 -1
10

10

10

10

(rad/s)

Figura 7.9: Diagrama de Bode del termino asociado a un cero


si todos los polos y ceros estuvieran en el semiplano de la izquierda (el sistema
fuera de fase mnima).
Im

Im

G2 (s)

G1 (s)
0

Re

Re

Figura 7.10: Diagrama de polos y ceros de G1 y de G2


Con el fin de ilustrar el concepto de sistema de fase mnima considerense los
sistemas de funcion de transferencia:
G1 (s) =

sz
s+p

(7.4)

G2 (s) =

s+z
s+p

(7.5)

Vamos a comparar los diagrams de Bode de estas dos funciones de transferencia.

Representacion grafica de la funcion de transferencia

108

Para ello considerese la figura 7.10. Es claro que


| G1 (j) |=| G2 (j) | 0
y, por tanto, las curvas de amplitud en el diagrama de Bode seran las mismas
para las dos funciones de transferencia.
Sin embargo, por la que respecta a los argumentos es claro que se tendra:
arg G1 (j) arg G2 (j) 0
En la figura 7.11 se tienen las correspondientes curvas de fase. Se comprende la
denominacion de sistema de fase mnima para G2 .
o

180

90

G1(j)

-1

10

10

10

10

G2(j)

-90

Figura 7.11: Curvas de fase en el diagrama de Bode de G1 y de G2

7.4

Crculos M y N

Para proceder al dise


no de sistemas realimentados, mediante metodos graficos,
es necesario disponer de un metodo grafico que permita pasar de la funcion de
transferencia en bucle abierto G(s) a la correspondiente a bucle cerrado T (s).
Como se sabe la expresion que liga a estas dos funciones de transferencia es la
siguiente
G(s)
T (s) =
1 + G(s)

Representacion grafica de la funcion de transferencia

109

Si se interpreta vectorialmente esta expresion se tendra que el vector T (j) tendra


como modulo el cociente de los vectores G(j) y 1 + G(j), y como argumento
la diferencia de los argumentos de estos dos vectores. En la figura 7.12 se tienen
Im

(1 + j0)
A

1+G

Re

Figura 7.12: Diagrama polar de la funcion de transferencia, con vectores asociados


representados los correspondientes vectores. A partir de esta figura resulta que
para cada valor de el modulo de T (j) se determinara mediante el cociente de
las medidas de los segmentos OP y AP , y el argumento de T (j) vendra dado
por la expresion
arg C/R =
(7.6)
Con el fin de facilitar la aplicacion practica de este metodo grafico se procede
a definir en el plano polar un sistema de coordenadas curvilineas que permita
resolver graficamente la determinacion del modulo y el argumento de T (j).
Para ello se procede a dibujar el lugar geometrico de los puntos para los que
el modulo (respectivamente el argumento) de T (j) sea constante. Sea (x, y) un
punto generico del plano complejo (figura 7.13). A partir de las figuras 7.12 y
7.13 se puede escribir
q
OP = x2 + y 2
q

AP =

(1 + x)2 + y 2

2
OP
x + y2
M=
=q
AP
(1 + x)2 + y 2
Elevando al cuadrado esta expresion, y tras algunas manipulaciones algebraicas,
se tiene
M2
M2
y 2 + x2 + 2x 2
= 2
M 1
M 1

Representacion grafica de la funcion de transferencia

110

Figura 7.13: Plano complejo


Sumando y restando a esta expresion

M2
M2 1

!2

se tiene

M2
M2
y 2 + x2 + 2x 2
+
M 1
M2 1

!2

M2
M2 1

!2

M2
M2 1

de donde se concluye

M2
y + x+ 2
M 1
2

!2

M2
M2 1

Esta expresion indica que el lugar geometrico en el plano complejo de los puntos
para los que el modulo de T (j) es constante viene dado por un crculo de centro
c=
y de radio

M2
M2 1

r = 2
M 1
La familia de crculos correspondientes a diferentes valores de M se tiene en
la figura 7.14. Esta figura admite una facil interpretacion. Si en ella se dibuja
la funcion de transferencia en bucle abierto G(j) entonces leyendo esta misma
curva en el sistema de coordenadas curvilneas definido por los crculos M se
tiene el modulo de la funcion de transferencia en bucle cerrado T (j). Por lo que
respecta a las fases, se puede proceder de manera analoga a como se ha hecho
con los modulos. En este caso se tiene que, de acuerdo con la expresion (7.6)

Representacion grafica de la funcion de transferencia

111

Im

Re

Figura 7.14: Crculos M

1 + j0

1+G

Figura 7.15: Crculos N

Representacion grafica de la funcion de transferencia

112

el argumento de T (j) viene dado por el angulo AP O en la figura 7.12. En la


figura 7.15 se representa el lugar geometrico de todos los angulos AP O de valor
constante. Este lugar geometrico resulta ser un crculo, de acuerdo con una bien
conocida propiedad de la geometra, y el valor de este angulo esta perfectamente
definido en el crculo y resulta ser de /2, de acuerdo con la figura 7.15. Es decir
arg

1/2
= = = arctan
1+G
2
y

siendo

G
2 tan()
De este modo se tiene definida otra familia de crculos, los crculos N , en los que
se puede leer la fase del sistema en bucle cerrado si se dibuja en coordenadas
polares la funcion de transferencia en bucle abierto.
y=

En la practica no se emplean los crculos M y N en el diagrama polar, sino su


traslacion a un diagrama de coordenadas rectangulares, en el que se representa en
abcisas el logaritmo de y en coordenadas la relacion de amplitudes en decibelios.
Este diagrama recibe la denominacion de abaco de Black, en libros europeos,
mientras que en libros americanos es frecuente que se denomine abaco de Nichols.

7.5

Relaci
on entre las constantes de error y los
polos y ceros.

Sea G(s) la funcion de transferencia en bucle abierto de un sistema con realimentacion unitaria. La funcion de transferencia en bucle cerrado correspondiente
Td (s) sera:

Td (s) =

Y (s)
G(s)
=
R(s)
1 + G(s)

(7.7)

y la relacion entre la se
nal de error y la referencia vendra dada por
1
E(s)
=
R(s)
1 + G(s)

(7.8)

Supongase que los polos de Td (s) se denotan por pi y que los ceros se hacen
por ci . En tal caso se tiene:

Representacion grafica de la funcion de transferencia

Td (s) =

113

k(s + c1 ) (s + c2 ) (s + cm )
(s + p1 ) (s + p2 ) (s + pn )

(7.9)

Por otra parte desarrollando en serie E(s) /R(s) se tiene:


E(s)
= eo + e1 s + e2 s2 +
R(s)

(7.10)

Se van a estudiar a continuacion las relaciones entre las constantes de posicion


kp , velocidad kv , y aceleracion ka y los polos y ceros de Td (s).

7.5.1

Seguimiento de posici
on.

Supongase una entrada en escalon de posicion, de manera que R(s) = 1/s. En


tal caso (7.10) se convierte en
E(s) =

eo
+ e1 + e2 s + ...
s

(7.11)

Es decir que
sE(s) = eo + e1 s + e2 s2 + ...

(7.12)

Por lo tanto aplicando el teorema de valor final, el valor del error en regimen
permanente erp sera:

erp = limt e(t) = lims 0 sE(s) = lims 0

1
= eo
1 + G(s)

(7.13)

Definiendo la constante de error de posicion kp como


kp = lims 0 G(s)
se tiene que e0 viene dado por

(7.14)

Representacion grafica de la funcion de transferencia

eo =

1
1 + kp

114

(7.15)

Por otra parte puesto que


E(0)
1
= lim
R(0) s 0 1 + G(s)

(7.16)

Y considerando (7.10), es decir e0 = E(0) / R(0), se tendra que


E(0)
1
=
R(0)
1 + kp

(7.17)

Y (s)
E(s)
=1
R(s)
R(s)

(7.18)

Ademas se sabe que

A partir de (7.17) y (7.18), haciendo s = 0, se obtiene


Y (0)
kp
=
R(0)
1 + kp

(7.19)

de donde, resolviendo para kp , se tiene

kp =

Y (0) / R(0)
1 Y (0) / R(0)

(7.20)

Por otra parte se tiene que haciendo s = 0 en (7.7) se llega a


cj
k m
Y (0)
= n j=1
R(0)
j=1 Pj
en donde

(7.21)

Representacion grafica de la funcion de transferencia

115

m
j=1 Cj = producto de ceros
nj=1 Pj = producto de polos
Llevando (7.21) a (7.20) se tiene la siguiente expresion en donde kp esta expresada en funcion de los polos y ceros.

kp =

k m
j=1 Cj
n
j=1 Pj km
j=1 Cj

(7.22)

En la practica tiene un especial interes la consideracion de los sistemas de tipo


1 en bucle abierto. Este caso se presenta cuando se estudian los servomecanismos
de posicion. Para los sistemas de tipo uno, o superior, recordando la expresion
(8), es inmediato que kp tiende a infinito. En tal caso, y de acuerdo con (9) es
claro que e0 = 0. Por ello considerando (7.10) y (12) se tendra que
Y (s)
E(s)
=1
= 1 e1 s e2 s2
R(s)
R(s)

(7.23)

Observese que haciendo s = 0 se tiene


Y (0)
=1
R(0)

(7.24)

lo que significa que en regimen permanente no existe error de seguimiento,


cosa que era sabida para los sistemas de tipo uno.
Haciendo s = 0 en la expresion (7.9), y teniendo en cuenta (7.24) se tendra
que

1=

k c1 ......cm
p1 p2 ......pn

(7.25)

Esta expresion muestra la relacion existente entre los polos ceros y la constante
k de un sistema en bucle cerrado para que el error de seguimiento en posicion sea
nulo.
La constante de posicion kp es adimensional.

Representacion grafica de la funcion de transferencia

7.5.2

116

Seguimiento de velocidad.

Sea un sistema con error de seguimiento en posicion nulo (eo = 0) y supongase


que se le aplica una entrada en rampa de manera que R(s) = 1/s2 . En tal caso
se tiene que E(s) vendra dado por

E(s) =

1/s2
e1
=
+ e2 + ....
1 + G(s)
s

(7.26)

Aplicando el teorema del valor final se tendra que el error en regimen permanente a una rampa sera

erp = lim e(t) = lim sE(s)


t

s0

1
s0 s + sG(s)
1
= lim
= e1
s0 sG(s)
= lim

Se define la constante de error de velocidad kv como


kv = lims 0 sG(s)

(7.27)

de manera que e1 vendra dada por


e1 =

1
kv

(7.28)

La constante de seguimiento en velocidad kv tiene un valor finito para sistemas


en bucle abierto de tipo 1, es decir, para sistemas con una integracion pura. En
tal caso se tiene que e0 = 0, con lo que se tiene, habida cuenta de la expresion
(7.10).
Y (s)
= 1 e1 s e2 s2 ....
R(s)
Derivando esta expresion con relacion a s, y haciendo s = 0, se tiene

Representacion grafica de la funcion de transferencia

d Y (s)
ds R(s)

= e1 =
s=0

117

1
kv

(7.29)

Si, ademas se tiene presente que para sistemas de tipo 1

Y (s)
R(s)

=
s=0

Y (0)
=1
R(0)

a partir de las dos expresiones anteriores


1
=
kv

d
ds

(Y (s)/R(s))

(Y (s)/R(s))s=0

s=0

d
Y (s)
=
ln
ds
R(s)

(7.30)
s=0

Llevando la anterior expresion a (7.10) se tiene que

1
d
=
(ln k + ln(s + c1 ) + .. ln(s + p1 ) ..)
kv
ds

s=0

(7.31)

lo que puede escribirse


1
1
1
= (
+ ....
...)s = 0
kv
s + c1
s + p1
o de forma mas compacta
n
m
X
X
1
1
1
=

kv
i=1 pi
j=1 cj

(7.32)

Por consiguiente 1/kv es igual a la suma de los inversos de los polos menos la
suma de los inversos de los ceros, todo en bucle cerrado.
Si se quiere que el error de seguimiento en velocidad sea nulo se requerira que
kv tienda a infinito, en cuyo caso se tendra que

Representacion grafica de la funcion de transferencia

n
X
1
j=1

pj

m
X
1
j=1

cj

118

(7.33)

Ejemplo.
Sea un sistema de segundo orden cuya funcion de transferencia en forma normalizada se escribe
n2
Y (s)
= 2
R(s)
s + 2n s + n2
Este sistema presenta un error de seguimiento en posicion igual a cero, es decir
Y (0)/R(0) = 1. Por lo tanto interesa calcular kv en funcion de los parametros
n y. Los polos de la anterior funcion de transferencia seran p1,2 = n
jn 1 2 y por lo tanto aplicando la expresion (7.32) se tendra que
kv =

n
2

(7.34)

La constante de velocidad kv tiene dimension de seg 1 . En efecto


erp =

kv

y como erp se mide en metros (o radianes) y en metros por segundo (o rad


/ seg) se tendra que kv vendra dada por seg 1 .

7.5.3

Seguimiento de aceleraci
on

Sea un sistema con errores de seguimiento de posicion y velocidad nulos. Para el


estudio de un seguimiento en aceleracion se procede de forma similar a como se
ha hecho anteriormente. Si se supone una entrada en aceleracion se tendra que
R(s) = 1/s3 , con lo que el valor de E(s) sera
E(s) =

e2
+ e3 + s e4 + ...
s

(7.35)

Representacion grafica de la funcion de transferencia

119

Aplicando nuevamente el teorema del valor final se tendra que el error de


seguimiento en aceleracion cuando el tiempo tiende a infinito sera
erp = lims0 s E(s) = e2
Y definiendo la constante de error en aceleracion ka como
ka = lims s2 G(s)
se tendra que

e2 =

1
ka

Tomando la segunda derivada de (29) se tendra que

d2
Y (s)
ln
2
ds
R(s)

(Y /R)
(Y /R)1
=

Y /R
Y /R

!2

de donde es facil de deducir haciendo s = 0, que


m
n
X
X
2
1
1
1
= 2+

2
2
ka
kv j=1 pj
j=1 cj

expresion que permite calcular la constante de velocidad ka .


La constante de aceleracion ka tiene dimension seg 2 .

7.5.4

Sistemas con error nulo

Supongase que la funcion de transferencia de un sistema en bucle cerrado viene


dada, en forma normalizada, por la expresion siguiente
bo sm + + bm1 s + bm
Y (s)
= n
R(s)
s + a1 sn1 + + an1 s + an

(7.36)

Representacion grafica de la funcion de transferencia

120

Esta expresion, considerada como cociente de dos polinomios, puede desarrollarse en serie, de la forma siguiente:

bo sm + + bm1 s + bm
Y (s)
= n
R(s)
s + a1 sn1 + + an1 s + an
= co + c1 s + c2 s2 +
La determinacion de los coeficientes ci del desarrollo en serie, puede hacerse
facilmente multiplicando ese desarrollo en serie por el denominador de la funcion
de transferencia, e igualando coeficientes entre ambos miembros. Con ello se
obtiene que

co =

c1 =

bm
an

(7.37)

bm1 co an1
bm

Recordando la expresion (7.10) se tiene que el error vendra dado por


E(s)
T (s)
=1
R(s)
R(s)
Si se supone una entrada en escalon R(s) = 1/s, entonces es evidente que el
error sera nulo en regimen permanente si c0 = 1, es decir, si an = bm .
Por consiguiente es necesario que bm = an para que el error en regimen estacionario sea nulo, cuando se aplica como se
nal de entrada una se
nal en escalon.
Para obtener un error de seguimiento en posicion nulo, para un sistema cuya
funcion de transferencia sea de la forma (30), existen distintas formas posibles.
Si el numerador consiste u
nicamente en una constante, entonces la forma que se
obtiene es u
nica y es la siguiente
an
Y (s)
= n
R(s)
s + + an1 s + an

(7.38)

Representacion grafica de la funcion de transferencia

121

Supongase que c0 = 1. En tal caso, c1 se convierte en

c1 =

bm1 an1
bm

(7.39)

Ahora suponiendo una entrada en rampa, el error tendra un valor nulo en


regimen permanente si an1 = bm1 . En tal caso una forma posible para la
funcion de transferencia en bucle cerrado es
Y (s)
an1 s + an
= n
n1
R(s)
s + a1 s
+ + an1 s + an

(7.40)

Estas expresiones se pueden generalizar para entradas de orden superior. El


interes de las mismas radica en que permite especificar el numerador, a partir
de consideraciones de comportamiento en regimen permanente, partiendo del
denominador, obtenido por consideraciones de comportamiento transitorio.

Tema 8
Estabilidad de los sistemas
din
amicos
8.1

Introducci
on

La estabilidad es una propiedad cualitativa de los sistemas dinamicos a la que


cabe considerar como la mas importante de todas. Ello es debido a que, en la
practica, todo sistema debe ser estable. Si un sistema no es estable, normalmente
carece de todo interes y utilidad.
El estudio de la estabilidad de los sistemas dinamicos ocupa un lugar primordial en el analisis y en la sntesis de los sistemas realimentados. De hecho, la
sntesis de un sistema de control estara presidida por un imperativo de estabilizacion del sistema realimentado que resulte.
El presente captulo se va a dedicar al analisis de la estabilidad de los sistemas
dinamicos, es decir, a establecer criterios que permitan discernir si un determinado
sistema dinamico, dado en una cierta forma de representacion matematica, es
estable o no. En captulos posteriores se estudiaran las modificaciones a introducir
en los sistemas dinamicos para modificar su estabilidad.
El estudio de la estabilidad de los sistemas dinamicos, se hara atendiendo a la
forma de representacion adoptada; en este sentido se estudiara en primer lugar la
estabilidad de los sistemas dinamicos dados por su descripcion externa, y luego
se hara el estudio para la descripcion interna de los mismos.

122

Estabilidad de los sistemas dinamicos

123

Al mismo tiempo se vera a lo largo de este captulo como existen distintas


definiciones de estabilidad, lo que da lugar a distintos criterios, asociados a las
distintas definiciones. No obstante, se vera que pese a la aparente diversidad de
definiciones y criterios, existe una profunda unidad subyacente en todo el tema.

8.2

Criterios de estabilidad relativos a la descripci


on externa

Una forma intuitiva de afrontar el problema de la estabilidad de un sistema


es considerar que este sera estable si las distintas magnitudes que lo definen no
alcanzan valores infinitos. Basados en esta idea intuitiva se puede dar la siguiente
definicion precisa de estabilidad.
Definici
on
Un sistema, inicialmente en reposo, se dice estable si ante cualquier se
nal de
entrada acotada, es decir, que no alcanza valores infinitos, responde con una se
nal
de salida acotada.
Formalmente se dice de una se
nal x(t), definida en un cierto intervalo (t0 , t1 ),
que esta acotada en dicho intervalo, si para todo t (t0 , t1 ) existe un valor k <
tal que |x(t)| < k
De una forma mas compacta puede decirse que un sistema es estable si,
se
nal de entrada acotada se
nal de salida acotada.
Desde un punto de vista intuitivo esta definicion de estabilidad es satisfactoria;
tiene, ademas, la ventaja adicional de que conduce a resultados matematicos
interesantes, seg
un se vera en lo que sigue.
Para el caso de sistemas multivariables esta definicion es igualmente valida,
sustituyendo las se
nales de entrada y de salida por los vectores de se
nales de
entrada y de salida.
En los libros anglosajones a la estabilidad anteriormente definida se la llama
estabilidad BIBO (bounded-input bounded-output).

Estabilidad de los sistemas dinamicos

124

Si se adopta la forma de descripcion externa dada por la integral de convolucion, es decir, si la relacion entre la se
nal de entrada u(t) y la se
nal de salida
y(t) esta dada por una expresion de la forma,

y(t) =

Z t

h(t, ) u( ) d

(8.1)

entonces el criterio de estabilidad de un sistema viene dado por el siguiente


teorema.
Teorema
Un sistema, inicialmente en reposo, representado por una expresion de la
forma (8.1) es estable si y solo si existe un n
umero finito k tal que para todo t,
Z t

| h(t, ) | d k <

(8.2)

Demostraci
on
1. Suficiencia
Se trata de demostrar que si se cumple la condicion (8.2), entonces ante
una se
nal de entrada acotada, | u(t) |< k1 para todo t, la se
nal de salida
y(t) es tambien acotada. En efecto, se tiene:

| y(t) |=|

Z t

h(t, ) u( )d |
k1

Z t

Z t

| h(t, ) | u( ) | d
| h(t, ) | d kk1

2. Necesidad
Se trata de demostrar que si las se
nales de entrada u(t) y de salida y(t) son
acotadas, entonces siempre se cumple la expresion 8.2. Ello es equivalente
a demostrar que si no se cumple la expresion 8.2 entonces pueden existir
se
nales de salida y(t) que no esten acotadas aunque lo este la se
nal de
entrada u(t).
Supongase que la expresion (8.2) no se cumple, es decir

Estabilidad de los sistemas dinamicos


Z t

125

| h(t1 , ) | d =

Si a este sistema se le aplica la siguiente se


nal de entrada se tiene una salida
no acotada. En efecto, sea
u(t) = sgn[h(t1 , )]
en donde,

0 si x = 0
1 si x > 0

1 si x < 0

sgn x =

Es claro que u(t) es acotada. Sin embargo la se


nal de salida del sistema no
lo es,
y(t1 ) =

Z t1

h(t1 , ) u( ) d =

Z t1

| h(t1 , ) | d =

Queda demostrado la necesidad de que se cumpla la expresion (8.2) para


que el sistema sea estable.
Para sistemas multivariables el anterior resultado se generaliza diciendo que
un sistema sera estable si la propiedad de la expresion (8.2) se cumple para cada
uno de los elementos de la matriz H(t, ).
Para sistemas invariantes en el tiempo la expresion (8.1) se convierte en

y(t) =

Z t
0

h(t ) u( ) d

(8.3)

Y la expresion (8.2) se convierte en,


Z
0

| h( ) | d < k <

(8.4)

Para sistemas invariantes en el tiempo, la forma de descripcion externa usualmente empleada es la funcion de transferencia. Interesa enunciar un criterio de

Estabilidad de los sistemas dinamicos

126

estabilidad en terminos de dicha funcion de transferencia. Es lo que se hace en el


siguiente teorema.
Teorema
Un sistema lineal y estacionario, representado por una funcion racional propia
G(s) es estable si y solo si, todos los polos de G(s) estan situados en el semiplano
izquierdo abierto del plano s.
Una forma equivalente de expresar lo anterior es decir que los polos de G(s)
tienen la parte real negativa.
En el semiplano izquierdo abierto, a que se alude en el anterior teorema, se
excluye el eje imaginario. Si se incluye este eje imaginario se habla del semiplano
izquierdo cerrado.
Demostraci
on
Si G(s) es una funcion racional propia entonces puede desarrollarse en fracciones parciales, de manera que se descompone en la suma de un n
umero finito
de terminos de la forma,
K
(s pi )l
Y ademas, posiblemente, una constante pi denota un polo de G(s).
Al hallar la antitransformada de Laplace de G(s) se tiene que g(t) es la suma
de un n
umero finito de terminos de la forma t`1 epi t y, ademas, una posible
funcion de Dirac. Es facil demostrar que t`1 epi t es absolutamente integrable
si y solo si pi tiene la parte real negativa. Por lo tanto el sistema G(s) sera estable
si y solo si todos los polos de G(s) tienen la parte real negativa.
Ejemplo 1
Sea el sistema cuya funcion de transferencia es G(s) = 1/s. Este sistema no
es estable, de acuerdo con las anteriores definiciones. En efecto, considerese
una se
nal de entrada en escalon U (s) = 1/s. Se tendra que la se
nal de
2
salida sera Y (s) = 1/s . Por lo tanto
y(t) = L1 (1/s2 ) = t
la se
nal de salida y(t) no es acotada y por lo tanto el sistema no es estable.

Estabilidad de los sistemas dinamicos

127

Ejemplo 2
Seg
un la definicion anterior un oscilador simple es un sistema inestable. En
efecto, considerese el sistema cuya funcion de transferencia es G(s) = 1/(1+
s2 ) que corresponde a un oscilador. La respuesta impulsional correspondiente es g(t) = sen t, la cual se representa en la figura 8.1 (a). Supongase
ahora que se aplica a dicho sistema una se
nal de entrada periodica rectangular, de amplitud unidad y de periodo el mismo del oscilador, tal como la
de la figura 8.1 (b). La se
nal de salida viene dada por la expresion 8.3.
Supongase ahora que en la expresion 8.3 se hace t = 0. El producto de
se
nales g( ) u( ) esta representado en la figura 8.1 (c). Es claro que y(0)
es precisamente el area cubierta por dicha curva, cuando tiende a infinito.
Por lo tanto y(0) = . Es decir, el sistema es inestable.
A este mismo resultado se llega inmediantamente considerando los polos de
la funcion de transferencia, que resultan estar situados en el eje imaginario.
Para sistemas multivariables se generalizan inmediatamente los anteriores resultados diciendo que un sistema multivariable definido por una matriz de transferencia G(s) sera estable si cada uno de sus elementos satisface el anterior teorema.
Sea la funcion de transferencia de la forma:
H(s) =

b(s)
b0 sm + b1 sm1 + + bm
=
n
n1
s + a1 s
+ + an
a(s)

(8.5)

Figura 8.1:
Para determinar si H(s) es estable o no, es necesario:
1. comprobar si m < n;
2. determinar si las raices de a(s) estan situadas en el semiplano abierto negativo.
Para comprobar si las raices de un determinado polinomio se encuentran en el
semiplano abierto negativo, se aplica el criterio de Routh-Hurwitz que se estudia
en el apartado siguiente.

Estabilidad de los sistemas dinamicos

8.2.1

128

Criterio de Routh-Hurwitz

Una funcion de transferencia T (s) representa a un sistema estable si sus polos


se encuentran en el semiplano izquierdo negativo. Por lo tanto el problema del
analisis de la estabilidad de un sistema se reduce al del analisis de los ceros del
polinomio del denominador.
Un polinomio se denomina un polinomio de Hurwitz si todas sus raices tienen
la parte real negativa. Por lo tanto el problema de la estabilidad se reduce al de
determinar si el polinomio del denominador es, o no, un polinomio de Hurwitz.
El metodo directo de comprobar si un determinado polinomio es o no un polinomio de Hurwitz consiste en determinar todas las raices de dicho polinomio. Este
procedimiento puede ser, ademas de excesivamente laborioso, in
util por cuanto
que suministra una informacion superior a la que se requiere. No se trata de
saber cuales son las raices, sino, simplemente, si su parte real sera negativa o no.
El metodo de Routh-Hurwitz, permite determinar si las partes reales de las
raices seran negativas o no sin necesidad de determinarlas. Considerese un polinomio como el siguiente:
sn+1 + a1 sn + + an

(8.6)

Para determinar si el anterior polinomio tiene raices con parte real negativa
se procede como sigue:
1. Si alg
un coeficiente del polinomio es negativo o cero, entonces existe al
menos una raiz en el semiplano cerrado derecho. El sistema es, por lo
tanto, inestable.
2. En el caso de que no se cumplan los supuestos de 1), se procede a construir
la siguiente tabla:

n + 1 1 a2 a4 . . .

n
a1 a3 a5 . . .

n 1 1 2 3
(8.7)
n 2 1 2 3

. . . . . .
1
1
en donde la generacion de las distintas filas se hace como sigue, a partir de
los elementos de las dos anteriores

Estabilidad de los sistemas dinamicos

1 =

129

a1 a2 a3 1
a1
(8.8)

2 =

a1 a4 a5 1
a1

La tabla anterior recibe la denominacion de tabla de Routh, y el algoritmo que


permite su construccion se denomina algoritmo de Routh. Independientemente
de los trabajos de Routh, que publico originalmente el algoritmo que conduce a la
construccion de la tabla anterior, Hurwitz publico un criterio de estabilidad, que
se estudiara en una seccion posterior de este tema, que esencialmente coincide
con el de Routh. Por ello el criterio lleva conjuntamente el nombre de los dos
autores.
Toda fila depende de las dos filas precedentes. Se procede sucesivamente a
determinar filas hasta que se determine una cuyos elementos sean todos 0. Para
un polinomio de orden n se determinan n + 1 filas.
El criterio de estabilidad de Routh-Hurwitz dice que el polinomio tiene sus
raices en el semiplano abierto negativo si todos los elementos de la primera
columna son positivos y no nulos. El n
umero de cambios de signo en la primera
columna es igual al n
umero de raices del polinomio (8.6) en el semiplano positivo
abierto.
Ejemplo
Sea el polinomio s4 + 5s3 + 3s2 + s + 2 = 0. Para determinar el n
umero de
raices en el semiplano positivo, se construye la tabla de Routh y se tiene,
4
3
2
1
0

14/5

36/14

3 2
1 0
2
0

como hay dos cambios de signo en la primera columna existiran dos raices en
el semiplano derecho. Por consiguiente el sistema es inestable.
En la practica el criterio de Routh-Hurwitz se aplica para determinar si el
sistema es estable o no y, en general, no interesa saber el n
umero de raices en el

Estabilidad de los sistemas dinamicos

130

semiplano positivo abierto. Por lo tanto, cuando lo u


nico que interese sea conocer
si el sistema sera estable o no, se procedera a construir la tabla de Routh hasta
encontrar un elemento de la primera columna que sea negativo o cero. Cuando
aparezca un elemento negativo o nulo, se suspendera la construccion de la tabla,
y se dictaminara que el sistema es inestable.
En el caso de que interesase conocer cuantas raices existiran en el semiplano
positivo, o en el eje imaginario, se procede a construir la tabla de Routh completa.
En la construccion de la tabla de Routh, para el caso en que interese completarla
a
un cuando aparezcan elementos nulos en la primera columna, se presentan los
dos casos singulares siguientes :
1. Aparece un 0 en la primera columna, siendo no nulos los otros elementos
de la misma fila.
2. Aparece una fila con todos los elementos nulos, antes de llegar a la fila n+2.
En el primer caso se sustituye el 0 por un n
umero arbitrariamente peque
no .
Se completa la tabla y se calcula el lmite de los elementos en los que aparezca
haciendo 0.
Ejemplo
Considerese el polinomio: s4 + s3 + 2s2 + 2s + 3
Al construir la tabla de Routh se encuentra un cero en la primera columna,
en la fila dos. Se sustituye este cero por y se procede a completar la tabla, que
resulta la siguiente:

4 1
2 3

3 1
2

2 0 3
1 23

0 3
Una vez construida la tabla se determina el lmite de aquellos elementos en la
primera columna en los que aparezca , cuando 0. El elemento correspondiente a la fila 1 tiene el siguiente lmite,

lim

2 3
=

Estabilidad de los sistemas dinamicos

131

Por lo tanto, la primera columna queda como sigue:


1
1
0

3
Se presentan dos cambios de signo en la primera columna, y por consiguiente
el sistema tiene dos raices en el semiplano derecho, y es inestable.
El segundo caso particular mas arriba enunciado, es decir, el caso en que
se presente toda una fila de ceros, indica que el polinomio tiene, al menos, un
factor par. Es decir, que existe un par de raices reales simetricas con respecto
al eje imaginario, que existen dos raices imaginarias puras conjugadas, o que
existen cuatro raices complejas situadas simetricamente con relacion al origen.
Cuando esto sucede se procede a formar una ecuacion subsidiaria a partir de los
coeficientes de la fila anterior a aquella en la que todos los elementos sean nulos.
La expresion as obtenida resulta ser el factor par del polinomio. Para obtener
la fila siguiente, en la tabla de Routh, se procede a derivar esta expresion una
vez con respecto a s y situar sus coeficientes en la fila cuyos elementos se haban
anulado. A partir de esta sustitucion se prosigue la construccion de la tabla de
Routh normalmente. Un ejemplo ayudara a fijar ideas.
Ejemplo
Considerese el siguiente polinomio: s4 + 3s3 + 3s2 + 3s + 2
Si se construye la tabla de Routh correspondiente al llegar a la fila 1, se
encuentra que todos los elementos son ceros. En efecto
4
3
2
1

1
3
2
0

3 2
3 0
2
0

La ecuacion subsidiaria que se obtiene empleando los coeficientes de la segunda


fila es la siguiente:
2s2 + 2 = 0

Estabilidad de los sistemas dinamicos

132

que corresponde al factor par s2 + 1. La derivada de la ecuacion subsidiaria


es 4s. Por lo tanto la tabla se completa como sigue
4
3
2
1
0

1
3
2
4
2

3 0
3 0
2
0

De la observacion de esta tabla se desprende que el polinomio considerado


no tiene raices en el semiplano positivo. La factorizacion del polinomio anterior
conduce a,
(s2 + 1) (s + 2) (s + 1)
El anterior ejemplo muestra que sucede cuando el polinomio en cuestion tiene
raices en el eje imaginario. En tal caso estas raices dan lugar a un factor par, de
la forma del que aparece en el ejemplo, que se pone de manifiesto al aparecer una
fila de ceros en la tabla de Routh. Procediendo como se ha hecho en el ejemplo,
se elimina la fila de ceros y se tiene una tabla de Routh que indica, por medio
de los cambios de signos si existen raices en el semiplano derecho. Observese
que aunque no existan raices en el semiplano derecho, como sucede en el ejemplo
anterior, el sistema sera inestable, puesto que existen raices en el eje imaginario.
La aplicacion de las dos reglas anteriores, a los dos casos singulares que se
acaban de discutir, debe tomarse con ciertas reservas. En particular, la aplicacion
de la primera regla (introduccion de peque
nos parametros ) solo esta justificada
cuando el polinomio no tiene raices sobre el eje imaginario. En el libro Theorie
des matrices de Gantmacher, pag. 181, se tiene un ejemplo de un caso al que la
aplicacion de las reglas no es valida. Ello, sin embargo, no debe preocupar puesto
que lo que normalmente interesa de la aplicacion del criterio de Routh-Hurwitz
es, sencillamente, determinar si el sistema sera estable o no, lo cual puede hacerse
en todo caso sin ninguna ambiguedad, detectando si existe alg
un cero o alg
un
cambio de signo en la primera columna de la tabla de Routh.
El criterio de Routh-Hurwitz suministra una determinacion rapida de la estabilidad absoluta de un sistema. Sin embargo no suministra ninguna indicacion
respecto a la posibilidad de alterar la situacion de las raices. Su principal interes
reside en su empleo como un paso previo, antes de aplicar otros metodos.

Estabilidad de los sistemas dinamicos

8.2.2

133

Matriz de Hurwitz

El criterio de Routh-Hurwitz, objeto del apartado anterior, en realidad fue desarrollado originalmente por Routh. Sin embargo es completamente analogo al
desarrollado por Hurwitz, al que se va a dedicar este apartado.
Sea un polinomio a(s) tal como:
a(s) = sn + a1 sn1 + + an1 s + an

(8.9)

Se define la matriz de Hurwitz como la matriz formada por los coeficientes


del anterior polinomio, siguiente:

H=

a1 a3
1 a2
0 a1
0 1
.. ..
. .
0 0

a5
a4
a3
a2
..
.

...
...
...
...

0
0
0
0
..
.

0
0
0
0
..
.

. . . an2 an

(8.10)

El criterio de estabilidad de Routh-Hurwitz se puede enunciar diciendo que


el polinomio a(s) es un polinomio de Hurwitz si y solo si los menores principales
diagonales de H son todos positivos. Los menores principales diagonales de H
son los siguientes:
H1 = a1

H2 = det

a1 a3
1 a2

H3

a1 a3 a5

= det 1 a2 a4
0 a1 a3

(8.11)

Hn = det H
Si en la tabla de Routh los elementos de la primera columna se denotan por 1 ,
1 , 1 . . . p1 , entonces es posible demostrar, despues de algunas manipulaciones

Estabilidad de los sistemas dinamicos

134

algebricas, que,
H1 = 1
H2 = 1 1
H3 = 1 1 1

(8.12)

Por ello es evidente que el procedimiento de determinar H1 , H2 , . . . , Hn y ver


si son positivos no nulos es equivalente al de construir la tabla de Routh. Los
determinantes H1 , H2 , . . . reciben la denominacion de determinantes de Hurwitz.
Para aplicaciones practicas se recomienda emplear el metodo tabular de Routh,
por ser mas simple que la determinacion de las matrices de Hurwitz.

8.3

Criterio de Nyquist

El criterio de Routh permite analizar la estabilidad de un sistema lineal a partir


de los coeficientes de la ecuacion caracterstica. El criterio de Nyquist (1932)
permite realizar un analisis de la misma naturaleza a partir de la representacion
grafica de la funcion de tranferencia.
Este criterio esta basado en un teorema de Cauchy. Consideres una funcion
racional F (s) (formada por un cociente de polinomios en s). Si s representa a la
variable compleja s = + j entonces F (s) aplica el plano complejo s sobre un
plano complejo definido por las partes reales e imaginaria de F (s) (figura 8.2),
ImF (s)

j
C

F (C)

Z=3
P =1

ReF (s)

Figura 8.2: Teorema de Cauchy


de modo que a cada vector de s se corresponde un vector de F (s). Conviene

Estabilidad de los sistemas dinamicos

135

recordar que el argumento del vector F (s) se forma de la manera siguiente. En


el plano s se definen los vectores que unen los polos y ceros de F (s) con el punto
generico s. Pues bien, es facil ver que el argumento de F (s) se forma sumando
los argumentos de los vectores desde los ceros y restando los argumentos de los
vectores desde los polos (figura 8.3).

Figura 8.3: Aplicacion del contorno C1 : (a) C1 no rodea ning


un polo ni cero; (b)
C1 rodea un polo
Supongase ahora que se define una curva cerrada C en el plano s y la correspondiente curva imagen F (C) en el plano F (s). Supongase, ademas, que la curva
C se recorre en un determinado sentido (por ejemplo, el de las agujas del reloj).
A la curva imagen F (C) se asociara tambien un sentido.
El teorema de Cauchy establece que el n
umero de veces que la curva F (C)
rodea al origen (tomando el sentido positivo el de las agujas del reloj) es igual a
la diferencia entre el n
umero de ceros y el de polos que encierra la curva C en el
plano s. Es decir,
N =Z P
en donde N es el n
umero de veces que la curva F (C) rodea al origen, y Z y
P representan, respectivamente, el n
umero de ceros y de polos contenidos en la
curva C en el plano s.
Nyquist baso su criterio en una aplicacion muy ingeniosa del teorema de
Cauchy. Considero un sistema realimentado con realimentacion unitaria, como
el de la figura 8.4. La funcion de transferencia del sistema en bucle cerrado
correspondiente viene dado por la expresion
T (s) =

G(s)
1 + G(s)

Estabilidad de los sistemas dinamicos

136

H(s)
-

Figura 8.4: Sistema realimentado con realimentacion unitaria


de esta expresion resulta claro que los polos de T (s) son los ceros de 1 + G(s).
Para estudiar la estabilidad de un sistema en bucle cerrado Nyquit propuso
definir en el plano s la curva cerrada C que se muestra en la figura 8.5, y que
recibe la denominacion de contorno de Nyquist. Este contorno rodea el semiplano
de parte real positiva del plano complejo. Es decir, la region del plano complejo
en la que no debe haber polos de la funcion de transferencia en bucle cerrado, si
se quiere que el sistema sea estable.
j

ImH(s)

H(s)
C

H(C)

1 + H(s)

R=
1

ReH(s)

Figura 8.5: Contorno de Nyquist C para estudiar la estabilidad


Hemos visto que los polos de la funcion de transferencia en bucle cerrado T (s)
son los ceros de 1 + G(s). Por tanto, la estabilidad del sistema en bucle cerrado
estara garantizada si no existe ceros de 1 + G(s) en el interior del contorno de
Nyquist.

Estabilidad de los sistemas dinamicos

137

Veamos ahora como se construye la funcion G(s). Para ello basta observar que
el contorno de Nyquist se compone de tres partes. La recta OA que corresponde
al eje imaginario del plano complejo y que, por tanto, corresponde a la funcion de
transferencia G(j) para valoreS positivos de . La recta BO correspondiente a
la parte negativa del eje imaginario. Y, por u
ltimo, a la curva que une AB, que
se encuentra situada en el infinito del semiplano positivo del plano s. Por tanto,
al recorrer OA, se esta recorriendo G(j) para valores de de cero a infinito.
Analogamente, al recorrer BO se esta recorriendo G(j) desde menos infinito a
cero. Por u
ltimo, al recorrer de A a B se esta en valores de s con modulo infinito.
En este u
ltimo caso, si G(j) es tal que elgrado del polinomio del numerador es
menor que el del denominador, esta funcion tomara el valor cero.
Aplicando el teorema de Cauchy, para el caso F (s) = 1 + G(s), se puede decir
que un sistema realimentado, con realimentacion unitaria, es estable si y solo si
G(C) rodea al punto crtico s = 1, en el sentido de las agujas del reloj, un
n
umero de veces igual al n
umero de polos inestables de la funcion de tranferencia
G(s).
Conviene observar que la parte de G(C) correspondiente al semieje imaginario
[0, j] es, en realidad, la representacion polar de la funcion de transferencia G(s).
As mismo, la parte correspondiente al semieje imaginario negativo [j, 0] es
simetrica con relacion a esa representacion polar. Por lo que respecta a la parte
correspondiente al semicrculo de radio infinito (y eventualmente a un semicrculo
infinitesimal que rodee al origen) es evidente que si la funcion de transferencia es
tal que el grado del numerador es inferior a del denominador, se reduce a un punto.
Por todo ello, el trazado de G(C) es inmediato conociendo la representacion polar
de la funcion de transferencia G(j).
Por ejemplo, en 8.6a se tiene la representacion de la funcion de transferencia
G(s) =

1
(1 + s)

A partir de esta representacion grafica, se desprende que G(C) tendra la forma


que se indica en la figura 8.6b. Aplicando el criterio de Nyquist se tiene que este
sistema es estable (lo que sucede para todos los sistemas de primer orden cuya
funcion de transferencia sea de la forma 8.6).
En la figura 8.7 se tiene otro ejemplo de aplicacion del criterio de Nyquist, el
correspondiente a la funcion de transferencia
G(s) =

1
s(1 + s)

Estabilidad de los sistemas dinamicos

138

ImH(s)
<0

=
=

ReH(s)

>0

Figura 8.6: Diagrama polar y contorno G(C) para un sistema de primer orden

ImH(s)

H(C0 )
R=

R=
C0

=
=

ReH(s)

Figura 8.7: Contorno de Nyquist y G(C) para un sistema con un polo en el origen

Estabilidad de los sistemas dinamicos

139

en este caso se tiene que la funcion de transferencia G(s) presenta un polo en


el origen, el cual debe ser evitado por el contorno de Nyquist, por lo que se
recurre a modificarlo ligeramente a
nadiendo el contorno infinitesimal C0 que se
muestra en la figura 8.7. Es facil ver que la adicion de este contorno no modifica
el planteamiento anterior.
Un u
ltimo ejemplo que vamos a considerar es el siguiente
G(s) =

s+1
s
s( 1)
10

(8.13)

En este caso se tiene que el sistema presenta un polo inestable. En la figura 8.8
se tiene el trazado G(C) correspondiente.
Im

>0

Re

<0
0

Figura 8.8: Diagrama de Nyquist del sistema del ejemplo


En el diagrama de la figura 8.8 el punto crtico se ha representado en funcion
de la ganancia K. Observese que la peque
na desviacion C0 alrededor del polo
s = 0 (figura 8.9) da lugar a un gran arco en el infinito. Este arco se situa en el
semiplano izquierdo, ya que atraviesa el eje real negativa debido a la contribucion
de fase de 180 grados del polo en el semiplano de la derecha.

Estabilidad de los sistemas dinamicos

140

Im

180o
Re

Figura 8.9: Contorno C0 para el sistema del ejemplo


Para valores grandes de K (Kg en la figura 8.8) se observa que G(C) rodea
al punto crtico en el sentido contrario de las agujas del reloj; es decir, N = 1.
Por otra parte P = 1, debido al polo en el semiplano de la derecha, por lo que
Z =N +P =0
donde se concluye que no hay raices inestables en el sistema.
Para valores peque
nos de K (Kp en la figura 8.8) la curva G(C) rodea al punto
crtico en el sentido positivo de las agujas del reloj, por lo que N = +1 y Z = 2,
por lo que el sistema posee dos raices con parte real negativa y es inestable.
De los anteriores ejemplos se desprende que la aplicacion del teorema de
Nyquist hay que tener especial cuidado en los dos puntos siguientes:
Tener en cuenta la posible presencia de polos inestables en bucle abierto;
La evaluacion del n
umero de vueltas en torno al punto crtivo -1 en el caso
en el que haya ramas infinitas (ver el u
ltimo ejemplo).
Sin embargo, para los sistemas de fase mnima, es posible enunciar la siguiente
regla practica:

Estabilidad de los sistemas dinamicos

141

Regla pr
actica de Nyquist
Un sistema realimentado es estable en el caso en el que recorriendo el trazado
polar de la funcion de transferencia en el sentido de las crecientes el punto
crtico -1 quede a la izquierda.

8.3.1

Grado de estabilidad e interpretaci


on del criterio de
Nyquist

Seg
un se acaba de enunciar en la regla practica del criterio de Nyquist se tiene que
la estabilidad depende de la posicion del punto crtico con relacion al trazado polar
de la funcion de transferencia (figura 8.10). Este hecho sugiere la conveniencia
de introducir una medida de la distancia de G(C) a este punto crtico, por lo que
se define grado de estabilidad del sistema realimentado por
El margen de ganancia Gm = 20 log10 A1 , siendo A la ganancia correspondiente a la fase de 180 grados;
El margen de fase m , que es el desfase del punto correspondiente a la
ganancia unidad.

ImH(j)

1
m

ReH(j)
1

Figura 8.10: Grado de estabilidad


En la figura 8.10 se representan Gm y m . La estabilidad equivale entonces a una
de las condiciones siguientes:

Estabilidad de los sistemas dinamicos

142

Para el vector en bucle abierto correspondiente a un modulo unidad el


desfase es superior a -180 grados.
Para una fase de 180 grados el modulo del vector de la funcion de transferencia en bucle abierto debe ser inferior as la unidad.
De este modo, los margenes de fase y de ganancia establecen las posibles variaciones de la funcion de transferencia G(s) debidas a perturbaciones eventuales
que no afecten a la estabilidad del sistema. En la practica se considera que un
margen de fase de 50 grados y un margen de ganancia de 10 dB son satisfactorios.
Un margen de ganancia por debajo de los 30 grados no suele ser aceptable.

Tema 9
Compensaci
on de sistemas
realimentados
9.1

Introducci
on.

Un sistema de control realimentado se representa esquematicamente como se indica en la figura 9.1. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.

r(t) +
e

-@
@

6m

y(t)
-

H(s)

G(s)

Figura 9.1: Sistema de Control realimentado

143

Compensacion de sistemas realimentados

144

Cadena directa o de acci


on, es la que une los elementos comprendidos
entre la se
nal de error y la de salida. Ambas se
nales estan relacionadas por
la expresion,
Y (s)
= KG(s)
E(s)
siendo G(s) la funcion de transferencia del sistema considerado.
Cadena de realimentaci
on, es la que une la se
nal de salida con la de
informacion m(t), que es comparada con la de referencia. Ambas se
nales se
relacionan as,
M (s)
= H(s)
Y (s)
En este caso H(s) es la funcion de transferencia de la cadena de realimentacion.
Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se
nal
de entrada fuese e(t) y la de salida m(t). La funcion de transferencia del
conjunto as dispuesto sera
M (s)
= KG(s)H(s)
E(s)
Se llama bucle cerrado, al sistema conectado como se indica en la figura
9.1. Las se
nales y(t) y r(t) se relacionan por la conocida formula, facil de
deducir,
Y (s)
KG(s)
=
R(s)
1 + KG(s)H(s)
Observese que, en este caso, la se
nal de actuacion sobre el sistema es proporcional a la se
nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplificador sera, por tanto, un parametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentacion es
unitaria, con lo que el esquema fundamental quedara de la forma que se
indica en figura 9.2 y quedando la funcion de transferencia en bucle cerrado
reducida a

Compensacion de sistemas realimentados

145

Y (s)
KG(s)
=
R(s)
1 + KG(s)
Naturalmente en este caso cadena de acci
on y bucle abierto son dos conceptos coincidentes.

r(t) +
e

-@
@

6m

y(t)
-

G(s)

Figura 9.2: Sistema de Control realimentado unitariamente

Por u
ltimo, en algunas ocasiones se recurrira a alg
un servosistema fsico,
concretamente al conocido servomecanismo elemental de posicion, que responde en bucle abierto a una ecuacion diferencial lineal de la forma
J

d2 y
dy
+f
= u(t)
2
dt
dt

siendo en este caso y(t) un angulo (), J la inercia del conjunto motor-carga
y f el coeficiente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act
ue aceptablemente, necesita
satisfacer unas determinadas especificaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suficiente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado

Compensacion de sistemas realimentados

146

transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuacion
los procedimientos de compensacion que se han dado en llamar Clasicos en razon
de ser los primeros que se utilizaron.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modifica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:
Compensacion en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de accion; y
Compensacion por realimentaci
on: Cuando el elemento corrector constituye
una segunda cadena de realimentacion, en el bucle de control.
Los esquemas basicos para uno y otro caso se muestran, respectivamente, en
las figuras 9.3 y 9.4.

r(t) +
e
-

6m

Gr (s)

u0

u
K

G(s)

y(t)

Figura 9.3: Compensacion en serie


Como ya se ha indicado, en el caso de la compensacion en serie, la red correctora se coloca en cascada con los elementos de la cadena de accion, y delante del
amplificador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo. As mismo, se distinguiran tres tipos de acciones:
Accion proporcional mas derivada (PD);
Accion proporcional mas integral (PI) y
Accion proporcional mas integral y mas derivada (PID).

Compensacion de sistemas realimentados

r(t) +
e
-


6m
6

147

u
K

Gr (s)

G(s)

y(t)

Figura 9.4: Compensacion por realimentacion

9.2

An
alisis en el dominio de la frecuencia de la
red PD

Tiene lugar cuando la se


nal de mando del sistema es la suma de los terminos,
proporcional y derivado de la se
nal de error. En este caso se dice que la compensacion es del tipo PD. La funcion de transferenia de una red de este tipo es de la
forma,
Gr(s) = K (1 + s)
La discusion del caso general se hara en el dominio de la frecuencia, en donde
los resultados adquieren mayor generalidad y sencillez. Para ello se estudiara en
primer lugar la respuesta en frecuencia de un corrector P D. Su representacion
en Bode es la que se indica en la Fig. 9.5. Vemos pues que la red, a frecuencias
mayores que 1 aumentara la fase y la magnitud de la cadena de accion del sistema
en el que se introduce.
Para frecuencias algo menores que
despreciable para frecuencias bajas.

el efecto es menos notorio llegando a ser

En el diagrama de Bode, que se representa en la figura 9.6, se obsevan dos


efectos fundamentales sobre la respuesta en frecuencia de un sistema:
1. Aumento del ancho de banda: contrapartida, en el dominio de la frecuencia,
de la disminucion del tiempo de subida en la respuesta temporal del sistema.

Amplitud(dB)

Compensacion de sistemas realimentados

148

+20dB/dec

1/
(rad/s)

Fase(grados)

-260

-310

-360

1/

Figura 9.5: Diagrama de Bode para red PD


Este efecto es mas notable en el diagrama de Black, como se vera un poco
mas adelante, ya que alli se trata la respuesta del sistema en bucle cerrado.
2. Aumento del margen de fase: contrapartida, en el dominio de la frecuencia,
de la disminucion de la sobreoscilacion en el dominio del tiempo.
Las figuras 9.7 y 9.8 muestran la variacion de la funcion de transferencia en
bucle abierto de un sistema en el diagrama de Black, al introducir un corrector
PD. Si se elige 1 < wR , se consiguen dos efectos:
1. Disminuir el pico de resonancia (Mr ) del sistema en bucle cerrado y
2. Aumentar la frecuencia de resonancia.
Estos efectos de la red PD en el diagrama de Black tienen sus correspondientes
en el dominio del tiempo, a saber:
Aumento de la frecuencia de resonancia equivale a decir aumento del ancho
de banda del sistema en bucle cerrado; por tanto, el sistema deja pasar un
espectro mayor de frecuencias. La consecuencia inmediata es una respuesta
mas rapida y, en consecuencia, un menor tiempo de subida.
Disminuir el pico de resonancia, tiene como consecuencia un aumento del
margen de fase, y se sabe que este efecto va muy ligado a una disminucion
de la sobreoscilacion del sistema en bucle cerrado.

Compensacion de sistemas realimentados

149

Amplitud(dB)

Compensada

0 dB

Fase(grados)

Sin compensar

Compensada
MF2

-180

MF1
Sin compensar

(rad/s)

Figura 9.6: Bode sistema con compensacion PD

Amplitud(dB)

60

30

0
-360

-270

-180
Fase(grados)

-90

Figura 9.7: Diagrama de Black red PD

Compensacion de sistemas realimentados

150

100

Sin compensar

Amplitud(dB)

50

Compensado
-50

-100
-300

-240

-180
Fase(grados)

-120

-60

Figura 9.8: Diagrama de Black sistema con comp. PD


Queda a
nadir, finalmente, que las redes PD, son irrealizables fisicamente,
porque el grado de su polinomio numerador es mayor que el grado de su polinomio
denominador. No obstante, en un sistema electrico, s se puede conseguir una red
de este tipo utilizando elementos activos, aunque a
un en este caso, la solucion no
tiene interes practico ya que estas redes presentan un comportamiento muy malo
frente a los ruidos.

9.3

An
alisis en el dominio de la frecuencia de la
red PI

En este caso, la se
nal de mando es la suma de un termino proporcional y otro
integral, de la se
nal de error.
u(t) = K e + Ki

Z t
0

e dt

La compensacion es denominada PI y la funcion de transferencia de una red de


este tipo sera:
1
1 + s
Gr(s) = K(1 + ) = K(
)
s
s
El efecto sobre el sistema es, pues, a
nadir un polo en el origen (cambia el tipo del
mismo) y una accion derivada.

Compensacion de sistemas realimentados

151

Amplitud(dB)

La respuesta en frecuencia de un corrector PI se muestra en la figura 9.9. Se


ve que su accion consiste en disminuir la fase del sistema original, aumentando
simultaneamente la ganancia en bajas frecuencias. Para altas frecuencias, no
modifica la respuesta.

-20dB/dec

1/

Fase(grados)

-45

-90

1/
(rad/s)

Figura 9.9: Respuesta en frecuencia Red PI


El efecto de una red PI sobre un sistema puede verse en la figura 9.10.
La figura 9.10, muestra que 1 debe elegirse menor que wR para afectar solamente la respuesta del sistema a bajas frecuencias y aumentar la precision del
mismo, ya que si por el contrario, se elige 1 > wR aumentara el pico de resonancia, pudiendo llegarse a inestabilizar el sistema original, como muestra la figura
9.10.
La accion PI se utiliza cuando se quiere mejorar el regimen permanente de un
sistema, es decir, cuando se quiere disminuir el error de seguimiento, y cuando se
quiere que el sistema en cuestion sea insensible a variaciones en la carga.
La introducion de una red PI es causa de que el sistema, en bucle cerrado,
tenga peor regimen transitorio. Se puede dar una interpretacion fsica de ello muy
simple, y que servira para comparar el efecto de esta red, con el que proporciona
una red PD.
La figura 2.6 muestra en diferentes pasos, como en este caso, la inversion
del par corrector se realiza con posterioridad al alineamiento de ambos ejes. La
consecuencia de ello es que aumentara la sobreoscilacion y disminuira el tiempo
de subida, y el sistema sera mas inestable.

Amplitud(dB)

Compensacion de sistemas realimentados

152

Compensado

0 dB
Sin compensar

Fase(grados)

Sin compensar
MF1

-180

MF2
Compensado

(rad/s)

Figura 9.10: Efecto Red PI

Amplitud(dB)

50

25

0
-100

-80

-60
-40
Fase(grados)

-20

Figura 9.11: Respuesta PI.(Black)

Compensacion de sistemas realimentados

153

En resumen una red PI:


Cambia el tipo del sistema (a
nade un polo en el origen),
Aumenta la sobreoscilacion y disminuye el tiempo de subida de la respuesta
temporal en bucle cerrado.
Aumenta la precision estatica, compensando las variaciones de la carga a
la salida.
La red PI se encuentra en el mercado con facilidad, llevando normalmente
incorporado el comparador, con lo que el conjunto forma lo que se llama un
regulador de acci
on PI.

9.4

Acci
on proporcional, integral y diferencial
(PID)

Como facilmente se comprende, en este caso, la se


nal de mando contiene tres
terminos, de tal suerte que la funcion de transferencia del compensador que recibe
el nombre de PID es:
u(t) = K e + Ki

Gr(s) = K (1 +

Z t
0

e dt + Kd

de
dt

1
K
+ 2 s) =
(1 + 1 s + 1 2 s2 )
1 s
1 s

Se ve pues que, con una accion PID, al sistema se le a


nade un polo en el origen
(se cambia el tipo), una accion derivada primera, y una accion derivada segunda.
Tomando 1 = 2 = el diagrama de Bode queda como indica la figura 9.12 y su
efecto sobre un sistema se muestra en la figura 9.13.
Si se elige 1 < R (que era condicion para el caso de correctores PD y PI) se
pueden conseguir buenas caractersticas, tanto en el regimen transitorio como en
el permanente, es decir, es posible beneficiarse de los efectos de ambos tipos de
redes.

Amplitud(dB)

Compensacion de sistemas realimentados

154

-20dB/dec

20dB/dec

1/
(rad/s)

Fase(grados)

90

-90
1/
(rad/s)

Figura 9.12: Respuesta en frecuencia Red PID

100

Amplitud(dB)

50

-50

-100
-300

-240

-180
Fase(grados)

-120

-60

Figura 9.13: Diagrama de Black sistema con comp. PID

Compensacion de sistemas realimentados

9.5

155

Compensaci
on por avance de fase

Como se ha visto en el tema anterior una red PD aumenta la fase de la funcion de


transferencia del sistema a corregir para frecuencias proximas a 1 y superiores,
es decir, aumenta el margen de fase (disminuye la sobreoscilacion) y aumenta el
ancho de banda (disminuye el tiempo de subida). Tambien se ha dicho que una
red PD es irrealizable fsicamente.
No obstante, es posible conseguir elementos correctores que constituyen una
aproximacion a una red PD, en el rango de frecuencias en que los efectos son
interesantes. Estas redes reciben el nombre de redes de adelanto de fase.
Las redes de adelanto de fase tienen una funcion de transferencia de la forma:
Gr(s) =

1 + s
;
1 + s

<1

1
1
<

cuya representacion grafica se tiene en la figura 9.14.

Amplitud(dB)

|20log|

0 dB

1/
(rad/s)

1/at

1/
(rad/s)

1/at

Fase(grados)

-300

-330

-360

Figura 9.14: Respuesta en frecuencia Red de adelanto de fase


La forma de la grafica justifica ampliamente la denominacion de red de adelanto de fase. Su efecto constituye una aproximacion excelente a una red PD. En
efecto, la accion de una red de adelanto de fase sobre la funcion de transferencia
del sistema en bucle abierto se muestra en la figura 9.15; si se compara esta con la
figura 9.6, se observara que los efectos sobre el ancho de banda y el margen de fase

Compensacion de sistemas realimentados

156

son practicamente los mismos que los que produce una red PD. La diferencia entre
ambas redes radica en el termino (1 + s) cuyo efecto sobre el ancho de banda y
sobre el margen de fase es practicamente despreciable si se elige convenientemente
el valor de 1/ . Este valor, como es natural, debe elegirse notablemente superior
al de la frecuencia para la cual la ganancia es 0dB, con objeto de que su efecto
sea despreciable. Los criterios que presidiran la eleccion de estos valores se veran
mas adelante, al considerar los metodos de dise
no. Lo que aqu interesa resaltar
es el caracter de aproximacion a la red PD que presenta la red de adelanto de
fase.
Amplitud(dB)

Compensado

0 dB

Fase(grados)

Sin compensar

Compensado
MF2

-180

Sin compensar

-1

10

10

10
(rad/s)

10

10

Figura 9.15: Efecto Red de adelanto de fase


En el mercado se pueden encontrar redes de adelanto de fase de tipo neumatico,
hidraulico o electrico, por ejemplo. A continuacion se propone una red para un
servosistema de tipo electrico, de facil realizacion, y que se muestra en la figura
9.16. En esta se tiene:
ei = jZ + eo con e0 = jR0
siendo
Z=

1
R jwC

R+

1
jwC

R
1 + jwCR

eo
e0
e0
R
eo R + R0 + jwCRR0
0
0
ei = 0 Z + e0 = 0 (Z + R ) = 0 (
+R)= 0
R
R
R 1 + jwCR
R
1 + jwCR

Compensacion de sistemas realimentados

157

R0

ei

es

Figura 9.16: Realizacion de una red de avance

e0
R0 (1 + jwCR)
R0
1 + jwCR
=
=
.
RR0
0
0
0
ei
R + R + jwCRR
R + R 1 + jwC. R+R
0
y llamando

R0
R+R0

G0 r(s) =

= y = CR queda

1 + jw
e0
=
ei
1 + jw

Gr(s) =

1 0
es
1 + jw
G r(s) =
=

ei
1 + jw

como funcion de transferencia de la red.

9.6

Efecto en el dominio de la frecuencia

La respuesta en frecuencia de esta red electrica de adelanto de fase, se muestra


en la figura 9.15.
De la expresion de la funcion de transferencia se puede ver que el desfase que
produce la red propuesta es:
w w
1 + w2 2
y la frecuencia a la cual se produce el maximo:
tan =

w = wm =

1 1
1
=

Compensacion de sistemas realimentados

158

el valor de = m es maximo,
wm (1 )
wm (1 )
1

tan m =
=
=
2 2
1 + wm
1+1
2
y de aqu
1

1
tan m
1
2
q
sen m =
=
=
=
2
2
1 + tan m
1+
4 + 1 + 2 2
1 + (1)
4

relacion esta mas manejable que la anterior y que da el valor de para el margen
de fase apetecido, m . El valor de se deducira de la expresion
s

1 1
1
wm =
=
= wm

sustituyendo wm por la pulsacion para la cual queremos que se produzca el


maximo adelanto de fase.
Debe hacerse notar que para que la ganancia estatica del sistema no quede
afectada, hay que aumentar la ganancia del amplificador en el valor 1 , siendo
la atenuacion que produce la red a bajas frecuencias.
La figura 9.17. muestra el efecto de una red de adelanto de fase sobre la
respuesta en bucle cerrado del sistema, en el plano de Black. Puesto que se
pretende un efecto del tipo PD, se comprende facilmente que la frecuencia wR
debe situarse en las proximidades de la frecuencia de resonancia del sistema wR
0
para que de esta forma la nueva frecuencia de resonancia wR sea menor que wR .
Asimismo, el pico de resonancia M 0 sera menor que el anterior, M .
NOTA: Otros autores utilizan como expresion de la funcion de transferencia
de la red la siguiente expresion
1 1 + 0 as
a 1 + 0s
siendo las equivalencias entre esta y la estudiada anteriormente, las siguientes:
1
1
a1
=
wm =
0 =
sen m =
a
a
a+1

9.7

M
etodo pr
actico

Para ver el metodo practico de compensacion mediante una red de avance, lo


haremos con la ayuda de un ejemplo. Dicho ejemplo consiste en compensar el
sistema cuya funcion de transferencia en bucle abierto es:

Compensacion de sistemas realimentados

159

50

m1

Amplitud(dB)

Mm

m2

Sin compensar
-50

Compensada

-150
-300

-240

-180
Fase(grados)

-120

-60

Figura 9.17: Diagrama de Black sistema con Red de adelanto de fase

G(s) =

K
s(1 + s)(1 + 0.0125s)

para que cumpla las siguientes especificaciones:


1. Margen de fase > 50 ,
2. Error de seguimiento para una entrada u(t) = t, menor que el 1 %.
Resoluci
on:
Para cumplir la especificacion de regimen permanente,
Kv = K =

1
R
=
= 100
E
0.01

Las dos frecuencias de esquina son 1 y

1
0.0125

= 80

En Bode se ve que el sistema es inestable. El margen de fase es de unos


2 aproximadamente.
Se compensara el sistema mediante una red de adelanto.

Compensacion de sistemas realimentados

160

Para el calculo de , se toma un angulo m algo mayor que el mnimo


requerido, por ejemplo 55 y se tendra que,
sen 55 =

1
= 0.82 de donde 0.1
1+

Para hallar se procede as:


1. Se calcula la atenuacion total de la red, que sera:
20 log = 20 log 0.1 = 20 dB
2. Se busca la frecuencia para la cual la atenuacion del sistema es la mitad
que la de la red, es decir, 10 dB, y se elige aquella como la frecuencia para
la que se quiere la maxima desviacion de fase. Con ello, en el nuevo punto
de corte (que estara desplazado ligeramente hacia la derecha con respecto
al anterior), se tendra el margen de fase buscado.
Por lo dicho,

luego

1
wm = = 18 rad/seg

1
= wm = 5.7 rad/seg.

1
wm
w2 =
= = 57 rad/seg.

w1 =

As la funcion de transferencia de la red sera


G0 r(s) =

1
s
1 + 5.7
1 + s
= 0.1
1
1 + s
1 + 57 s

o Gr(s) =

1 + 0.1754s
1 + 0.01754s

Para que la ganancia a bajas frecuencias no se altere, ha de introducirse una


ganancia adicional de Ka = 1/ = 10, con lo que el sistema, una vez corregido,
tendra como funcion de transferencia:
G0 (s) =

1
s)
100(1 + 5.7
s(1 + s)(1 + 0.0125s)(1 +

1
s)
57

Con este ejemplo se han ilustrado los pasos necesarios para la colocacion de
una red de avance de fase, de forma que su aprovechamiento sea el maximo
posible.

Amplitud(dB)

Compensacion de sistemas realimentados

0dB

161

1
m

-10dB

-1

10

10

10
(rad/s)

Figura 9.18:

10

10

Tema 10
Representaci
on matem
atica de
sistemas
10.1

Introducci
on

10.1.1

Generalidades

El objeto de los Sistemas de Control es la concepcion de unos ingenios que conectados a un proceso real sean capaces de gobernarlo de manera autonoma, es decir,
sin la intervencion (o con una intervencion mnima) del ser humano. Dado un
determinado proceso industrial, o un cierto ingenio como un barco o un avion,
se trata de dise
nar un aparato que le suministre las se
nales de mando oportunas
para que su funcionamiento sea el requerido.
El sistema de control, a partir de la informacion que le suministra el proceso
a controlar, determina que acciones deberan tomarse para que el funcionamiento
de este sea el requerido. El funcionamiento requerido de un determinado proceso
implica un comportamiento dinamico. Por lo tanto el estudio del comportamiento
dinamico de los procesos, o en general de los objetos fsicos, tiene un interes
primordial en Automatica.
Por otra parte, en cierta medida, se puede considerar a un sistema de control
como un sistema de toma de decisiones. Es decir, el sistema de control toma
las decisiones de las acciones a tomar sobre el proceso para que su evolucion sea
la requerida. Para esta toma de decisiones se requiere que el sistema de control
162

Representacion matematica de sistemas

163

conozca el comportamiento dinamico del proceso a controlar. Es decir, se requiere


que el sistema de control conozca como reaccionara el proceso ante las posibles
se
nales de excitacion que este le suministre. De nuevo se tiene la necesidad del
conocimiento del comportamiento dinamico del sistema a controlar.
De lo anterior se desprende que en Automatica el estudio del comportamiento
dinamico de los sistemas tiene un interes primordial. Este estudio se concreta en
el de los sistemas dinamicos, que se va a considerar a continuacion.

10.2

Descripci
on interna de los sistemas din
amicos

La descripcion externa, seg


un se ha visto en la seccion anterior, suministra una
relaci
on explcita directa entre las se
nales de entrada y de salida. Esta relacion no
es satisfactoria en ciertos casos. Por ejemplo, supongase que se esta realizando la
simulacion de un sistema dinamico con ayuda de un computador digital. Es claro
que al ser el valor de la se
nal de salida, en cada instante, funcion de todos los
valores de la se
nal de entrada, en instantes anteriores, se presentaran dos notables
problemas al realizar la simulacion:
1. la memoria debera registrar los valores de la se
nal de entrada, lo cual requerira un gran volumen de la misma con el agravante de ir creciendo con
el tiempo; y
2. el n
umero de calculos a efectuar crecera con el tiempo alcanzado, con ello,
valores prohibitivos.
Los problemas del tipo de los anteriores se solucionan con ayuda de la denominada
descripci
on interna que no es sino una relacion explcita indirecta entre las se
nales
de entrada y de salida. La relacion se dice que es indirecta puesto que u(t) e y(t)
no estan relacionadas directamente sino a traves de otra variable x(t) llamada
estado del sistema dinamico, que juega un papel primordial en esta forma de
descripcion.
Se entiende por estado de un sistema dinamico la menor coleccion de variables cuyo valor, en un cierto instante de tiempo t, resume el pasado dinamico
del sistema hasta dicho instante y es suficiente para predecir la futura evolucion
del sistema a partir del mencionado tiempo t. El estado se representa, normalmente, por la letra x, y el conjunto de todos los estados por X. Un ejemplo lo

Representacion matematica de sistemas

164

suministra, en mecanica racional, el conjunto de valores tomados por la posicion


y velocidad de una partcula, cuyo conocimiento, en cierto instante, resume el
pasado dinamico de la partcula y permite prever la futura evolucion de la misma.
Debe notarse que, tal como se ha definido, el estado de un sistema dinamico
representa una magnitud abstracta sin ninguna referencia, en principio, a magnitudes fsicas medibles. Ello, no obstante, no se opone a que en alguna circunstancia el estado de un sistema dinamico pueda ser asimilado a conjuntos de
magnitudes susceptibles de interpretacion fsica e incluso medibles, como suceda
en el ejemplo mas arriba mencionado del estado de una partcula en mecanica
racional.
La descripcion interna esta basada en la existencia de las dos funciones siguientes:
1. La funci
on de transici
on que describe el cambio de estado que experimenta el sistema entre dos instantes de tiempo t0 y t1 como consecuencia
de la aplicacion de una se
nal u[t0 , t1 ]. Formalmente se escribe,
x(t1 ) = (t1 , t0 , x0 , u)

(10.1)

en donde representa la funcion de transicion, x0 el estado en el instante


t0 y u la se
nal de entrada aplicada entre t0 y t1
La funcion de transicion debe satisfacer las propiedades:
(a) Causalidad: para todo u1 y u2 tales que u1 (t) = u2 (t), t0 < t1 se
tendra,
(t1 , t0 , x0 , u1 ) = (t1 , t0 , x0 , u2 )
lo que se puede expresar diciendo que a la misma causa sigue el mismo
efecto.
(b) Consistencia: ((t0 , t0 , x0 , u) = x0
on: Para t2 > t1 > t0 se tiene,
(c) Composici
(t2 , t0 , x0 , u) = (t2 , t1 , x1 , u)
x1 = (t1 , t0 , x0 , u)
La interpretacion de las anteriores propiedades es evidente.
2. La funci
on de lectura o de salida que suministra el valor de la se
nal de
salida en el instante de tiempo t cuando el sistema se encuentra en el citado

Representacion matematica de sistemas

165

x(t) y esta sometido a un valor de la se


nal de entrada u(t). Formalmente
se escribe,
y(t) = [t, x(t), u(t)]

(10.2)

en donde representa la funcion de lectura.


Con el fin de establecer una definicion formal de un sistema dinamico se
denotara por T el conjunto de instantes de tiempo considerados, por X el conjunto
de estados, por U el conjunto de valores de la se
nal de entrada, por U = {| T
U } el conjunto de valores de entrada aceptables, por Y el conjunto de valores
posible para la se
nal de salida, y por Y = {y | T Y } el conjunto de se
nales de
salida. Con estas notaciones se puede definir formalmente un sistema dinamico
como sigue:
Definici
on
Un sistema dinamico es el objeto matematico constituido por el quntuplo,
(U, Y, X, , )
en donde la funcion de transicion cumple las propiedades a), b), c), mas
arriba indicadas.
Debe observarse que, tal como se indicaba al principio de esta seccion, la
relacion entre la se
nal de entrada u(t) y la se
nal de salida y(t) se hace indirecta y
se realiza a traves del estado x(t). Es decir, que as como en la descripcion externa
la funcion F determina y(t), a partir de u[t0 , t], en la descripcion interna, a partir
de u[t0 , t], y por medio de la funcion de transicion, se genera el estado x(t), y es
a partir del estado y de la funcion de la lectura como se tiene el valor de la se
nal
de salida y(t). La mayor complejidad que aparentemente presenta este segundo
camino se ve ampliamente compensada por la mayor simplicidad conceptual y
facilidad operativa que se obtiene con el. Ello se pondra de manifiesto en lo que
sigue.
A continuacion se estudia la descripcion interna de los sistemas mas corrientemente encontrados en la practica de la automatica y que son aquellos cuyos
tipos de relacion entre la entrada y la salida se considero en la seccion 3.3.

Representacion matematica de sistemas

10.2.1

166

Sistemas de estados finitos

Son aquellos en que el estado solo puede formar un conjunto finito de valores.
Igualmente las se
nales de entrada y salida solo pueden tomar sus valores de un
conjunto finito. En tal caso las funciones de transicion y de lectura pueden ser
tabuladas. Estos sistemas se estudian en cursos sobre sistemas logicos o sobre
teora de automatas y aqu se mencionan a ttulo de ejemplo y para mostrar la
profunda unidad del concepto de sistema dinamico.
Ejemplo

1/0

2
0/0

1/0

0/0

0/1

1/1

3
Figura 10.1: Diagrama de estados
Considerese el sistema representado por el diagrama de la figura 10.1. En el
es claro que,
X = {1, 2, 3}
U = {0, 1}
Y = {0, 1}
U e Y son secuencias de 1 y 0.

En cuanto a y pueden representarse en forma tabular como sigue,

Representacion matematica de sistemas

0
1 1
2 1
3 1

1
1
3
2

167

0
0
1
0

1
0
1
0

Debe observarse que al estudiar los sistemas de estados finitos el estado es un


objeto matematico de caracter general, que, en principio, no tiene porque ser un
vector como sucedera en las clases de sistemas que se consideraran mas abajo.

10.2.2

Sistemas din
amicos lineales en tiempo continuo

Una amplia clase de sistemas dinamicos lineales en tiempo continuo admite una
representacion matematica de la forma
x = A(t)x + B(t)u
y = C(t)x + D(t)u

(10.3)

en donde x, y e u son vectores de dimension n, p y m respectivamente y A,B,C y D

son matrices de dimension n n, n m, p n y p m respectivamente. El vector


x es el vector de estado del sistema. En la mayor de las aplicaciones D = 0, por
lo que en lo sucesivo y mientras no se indique lo contrario, se prescindira de la
matriz D.
La escritura de las ecuaciones diferenciales que rigen la evolucion de un sistema dinamico seg
un las expresiones 10.3 recibe el nombre de representacion por
variables de estado o por vector de estado del mismo.
En lo que sigue se trataran u
nicamente los sistemas dinamicos invariantes en
el tiempo con lo que, teniendo en cuenta ademas que D = 0, las ecuaciones 10.3
se emplearan en la forma
x = Ax + Bu
y = Cx

(10.4)

En donde A, B y C son matrices cuyos elementos son numericos. Se hablara


P
indistintamente de un sistema dinamico
y de la terna (A, B, C) que lo representa.

Representacion matematica de sistemas

168

Los sistemas dinamicos lineales que admiten una representacion matematica


tal como la de las expresiones 10.3 reciben la denominacion de sistemas lineales
diferenciales de dimensiones finitas, haciendo alusion con esta denominacion a
que el vector de estado es un vector de dimension n. Existen otras clases de
sistemas dinamicos lineales, como son los (sistemas de parametros distribuidos)
en los cuales el vector de estado tiene una dimension infinita. De estos u
ltimos
no nos ocupamos en estos apuntes.

Obtenci
on de la representaci
on por variables de estado
Todo sistema dinamico descrito por ecuaciones diferenciales de la forma de la
expresion (3.5) admite una representacion por variables de estado de la forma de
las expresiones 10.3. Aqu se discutira exclusivamente el caso de que la ecuacion
diferencial sea de coeficientes constantes, y que u(t) e y(t) sean escalares(sistemas
con una entrada y una salida).
Para un sistema dinamico dado, existen infinitas formas de representacion de
la descripcion interna. Es decir, existen infinitas ternas(A, B, C) que caracterizan
a un mismo sistema. Todos estas ternas estan ligadas entre s por unas relaciones
algebraicas que se estudiaran mas adelante en esta seccion.
Se estudiaran a continuacion las formas mas usuales de representacion interna
de los sistemas dinamicos lineales.

Forma can
onica de control
Sea el sistema descrito por la ecuacion diferencial,
dn y
dn1 y
+
a
+ ... + an y = u
1
dtn
dtn1

(10.5)

Se definen,

xi =

di1 y
dti1

i = 1, ...n

(10.6)

La anterior ecuacion diferencial de orden n se puede escribir como un sistema


de n ecuaciones diferenciales de primer orden. Es decir

Representacion matematica de sistemas

169

x 1 = x2
x 2 = x3
.. .. ..
. . .
x n = an x1 ... a1 xn + u
y = x1

(10.7)

Lo cual se puede escribir en la forma de las expresiones 10.3 definiendo,


xT =

A=

x1 x2 xn

0
1
0
0
0
1
.
.
.
.
.
.
.
.
.
0
0
0
an an1 an2

. . .
. . .

BT =

C=

0
0
.
.
.
. . . 1
. . . a1

0 0 1

1 0 0

(10.8)

(10.9)

(10.10)

Para el caso en que la ecuacion (10.5) tome la forma mas general siguiente:
dn1 y
dn1 u
dn y
+ a1 n1 + ... + an y = b1 n1 + ... + bn u
dtn
dt
dt

(10.11)

o, lo que es lo mismo, el sistema tiene la funcion de transferencia:


G(s) =

n(s)
b1 sn1 + b2 sn2 + ... + bn
=
n
n1
s + a1 s
+ ... + an
d(s)

(10.12)

Representacion matematica de sistemas

170

1
d

Figura 10.2: Factorizacion del sistema en el sistema de funcion de transferencia


en serie.
Supongase que se introduce la nueva variable v(t), tal que:
1
v(s)
=
u(s)
d(s)

(10.13)

es decir
d(s)v(s) = u(s)
Por otra parte,
n(s)v(s) = y(s)

(10.14)

La introduccion de la variable v equivale a factorizar el sistema (10.12) en el


sistema de funcion de transferencia (10.13) en serie con el de (10.14), tal como se
indica en la figura 10.2. Observese que el sistema (10.13) tiene la misma forma
que el (10.5), por lo que haciendo
x1 = v

x2 = x 1 = v

...

x2 = x 1 = v n1

(10.15)

se tiene que el par (A, B) para ese sistema sera el dado por la expresiones (10.810.9). Ademas, llevando (10.15) a (10.14) se tiene
y = bn v + bn1 v + ... + b2 v n2 + b1 v n1
= bn x1 + bn1 x2 + ... + b2 xn1 + b1 xn
= [bn bn1 ... b2 b1 ]x
Por tanto, las expresiones (10.8) y (10.9) son igualmente validas pero la (10.10)
toma la forma mas general,
C=

bn bn1 b1

(10.16)

En la figura 10.3 se muestra el diagrama interno de bloques del sistema dinamico,


descrito por la ecuacion (10.11), correspondiente a la estructura de la forma
canonica de control.

Representacion matematica de sistemas

171

+
+

b1

u +

x n

b2

xn

xn1

bn1

x2

bn

x1

a1

a2

an1

+
+

Figura 10.3: Diagrama interno de bloques

an

Representacion matematica de sistemas

172

Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d3 y
d2 y
dy
du
+
4
+ 3 + 2y = 3u + 2
3
2
dt
dt
dt
dt
Las matrices A, B y C en la forma canonica de control seran las siguientes:

0
1
0

0
1
A= 0

2 3 4

B= 0

C=

3 2 0

Forma can
onica de observaci
on
La obtencion de la forma canonica de observacion ilustra otro metodo general de
obtencion de la representacion por variables de estado de un sistema dinamico.
Consiste este procedimiento en determinar, en primer lugar, el diagrama interno de bloques para luego asignar a la salida de cada integrador una variable de
estado y as construir las matrices A, B y C.
Sea la ecuacion diferencial con coeficientes constantes,
dn y
dn1 y
dn1 u
+
a
+
...
+
a
y
=
b
+ ... + bn u
1
n
1
dtn
dtn1
dtn1

(10.17)

cuya descripcion por variables de estado, en la forma canonica de observacion,


se quiere determinar. Para obtener un diagrama interno de bloques se procede
como sigue. Llamando D al operador dtd , la expresion (10.17) se puede escribir:

Dn y + Dn1 (a1 y b1 u) + ... + D(an1 y bn1 u) + an y bn u = 0


Dividiendo por Dn y despejando y se tiene:

y=

1
1
1
(b1 u a1 y) + ... + n1 (bn1 u an1 y) + n (bn u an y)
D
D
D

(10.18)

Representacion matematica de sistemas

173

La expresion (10.18) conduce a un diagrama de bloques como el de la figura


10.4.
u

bn

b1

bn1

x 1

x1

x 2

x2

x n1

R x
n1

x n

xn
y

an

an1

a1

Figura 10.4: Forma canonica de observacion


De la observacion de la figura 10.4 se desprende:

x 1 = an xn + bn u
x 2 = an1 xn + x1 + bn1 u
...
x n1 = a2 xn + xn2 + b2 u
x n = a1 xn + xn1 + b1 u
y = xn
Las anteriores ecuaciones pueden escribirse en forma compacta empleando la
notacion matricial en cuyo caso se tienen dos ecuaciones como las 10.3 (Ao = ATc )
con,

Representacion matematica de sistemas

A=

0
1
0
.
.
0
0

0
0
1
.
.
0
0

174

0 ...
an
0 ... an1
.
.
1
.
. .
.
0 ...
a2
0 1
a1

(10.19)

B T = (bn bn1 . . . b1 )

(10.20)

C = (0 0 . . . 1)

(10.21)

Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d3 y
d2 y
dy
du
+
4
+ 3 + 2y = 3u + 2
3
2
dt
dt
dt
dt
cuya forma canonica de control se determino anteriormente. En su forma
canonica de observacion las matrices A, B y C seran:

0 0 2

A = 1 0 3
0 1 4

B= 2
0

C=

0 0 1

Para un mismo sistema dinamico existen diferentes formas de representacion


por variables de estado. Notese que, de hecho, los diagramas de las figuras 10.3
y 10.4 serviran para simular el sistema en un computador digital o bien en un
calculador analogico. Ello pone de manifiesto como la descripcion interna suministra un modelo de maquina que realiza el sistema, mientras que la descripcion
externa se limita a describir lo que sucede en la salida por efecto de la accion
que se realice a la entrada. La descripcion externa muestra que hace el sistema
mientras que la interna indica c
omo lo hace (al menos una forma de hacerlo)

Representacion matematica de sistemas

175

Representaciones equivalentes
Se ha visto en el apartado anterior como un mismo sistema admita distintas
representaciones. Se van a estudiar en este apartado las formas equivalentes de
representacion de un mismo sistema. Para ello interesa introducir los conceptos
de equivalencia y de similaridad.
Dos sistemas dinamicos se dicen equivalentes si ante la misma se
nal de entrada
responden con la misma se
nal de salida. Dos sistemas seran equivalentes si tienen
la misma representacion externa. El concepto de equivalencia entre sistemas tiene
una cierta sutileza que se pone de manifiesto en el ejemplo siguiente.
Ejemplo
Sean dos sistemas dinamicos cuyas funciones de transferencia son las siguientes:

T1 (s) =

1
s+1

T2 (s) =

s2

s+2
s+2
=
+ 3s + 2
(s + 1)(s + 2)

Las dos funciones de transferencia representan al mismo sistema. Sin embargo observese que si se obtienen las descripciones interna de cada una de estas
funciones de transferencia, se obtendran distintas dimensiones para el vector de
estado.
Un concepto mas restrictivo que el de equivalencia entre sistemas, es el de
similaridad. Dos sistemas se dicen similares si ademas de ser equivalentes, dan
lugar a realizaciones con la misma dimension para el vector de estados. Por
ejemplo, si a partir de una cierta funcion de transferencia se obtienen las formas
canonicas de control y observacion, estas dos formas de representacion constituyen
dos formas similares.
Sean (A1 , B1 , C1 ) y (A2 , B2 , C2 ) dos representaciones por variables de estado
de un mismo sistema. Es facil ver que existe una transformacion no singular T
tal que
A2 = T A1 T 1
B2 = T B 1
C2 = C1 T 1
En efecto si,
x = A1 x + B1 u

(10.22)

Representacion matematica de sistemas

176

y = C1 x
y x = T x, (T no singular), se tiene que,
T1 x = A1 T 1 x + B1 u
lo que premultiplicado por T resulta

x = T A1 T 1 x + T B1 u
y = C1 T 1 x
de donde resultan las expresiones (10.22).
Ejemplo
En el sistema dinamico cuyas formas canonicas de control y de observacion se
han determinado anteriormente se comprueba que,

5 12 3

T = 12 11 2
3 12 0
cumple las anteriores relaciones.
La equivalencia entre sistemas esta relacionada con la descripcion externa
de los mismos, mientras que la similaridad lo esta con la descripcion interna.
La equivalencia entre sistemas para el caso de una entrada y una salida, puede
parecer un concepto trivial. No lo es cuando se aplica a sistemas multivariables
La similaridad entre sistemas, o entre dos formas de representacion de un
mismo sistema, es un concepto extraordinariamente fecundo como se vera en
lo que sigue. De hecho, en el estudio de los sistemas diferenciales lineales por
variables de estado, lo que se va buscando es la forma de representacion que
mas convenga al problema que se esta tratando de resolver, y por medio de
transformaciones de similaridad como las descritas por las ecuaciones (10.22),
determinar estas formas de representacion.
Debe notarse que la transformacion de similaridad en representaciones de
sistemas dinamicos equivale a una transformacion lineal del vector de estados, es
decir a un cambio de bases en la representacion del mismo.

Representacion matematica de sistemas

10.2.3

177

Funci
on de transici
on de los sistemas din
amicos lineales

Se va a considerar con detalle u


nicamente el caso de sistemas invariantes en el
tiempo. Sean las expresiones 10.4.

x = Ax + Bu
y = Cx

(10.23)

en el caso en que las matrices (A, B, C) no dependan del tiempo, es decir esten
formadas por n
umeros.
Se trata de resolver, de una manera general, las anteriores ecuaciones diferenciales, en particular la primera, para ver que conduce a una funcion de transicion
entre estados de la forma definida al principio de esta seccion. (recuerdese la
expresion 10.1). Para resolver la ecuacion 10.23 se va a emplear el metodo de
Laplace seg
un el cual se puede escribir,
sX(s) x(0) = AX(s) + BU (s)
de donde se puede despejar X(s),
(sI A)X(s) = x(0) + BU (s)
Llamando (s) = (sI A)1 se tiene,
X(s) = (s)x(0) + (s)BU (s)

(10.24)

cuya antitransformada de Laplace es


x(t) = (t)x(0) +

Z t
0

(t )Bu( )d

(10.25)

en donde (t) = L1 [(s)]. La matriz (t) recibe el nombre de matriz de transicion

Representacion matematica de sistemas

178

La expresion (10.25) es de la misma forma que la expresion (10.1) y representa


la transicion entre los estados x(0) y x(t) como consecuencia de la aplicacion de
una se
nal de entrada u en el intervalo (0, t). Puede comprobarse facilmente que
la expresion (10.25) cumple las propiedades de causalidad, consistencia y composicion exigidas a la funcion de transicion entre estados. La existencia de (10.25)
para todo sistema descrito por ecuaciones de la forma (10.23) permite establecer,
que todo sistema dinamico cuyas ecuaciones diferenciales pueden escribirse en la
forma 10.23 admite una descripcion interna de acuerdo con la definicion dada al
principio de esta seccion. Observese que la funcion de lectura viene dada por la
segunda de las expresiones (10.23).
Se dice que al pasar de la descripcion externa a la interna lo que se hace es
factorizar la funcion que representa la descripcion externa en las funciones de
lectura y de transicion entre estados. Esto se puede interpretar con el siguiente
diagrama,

(s)

Para el caso de sistemas que varen con el tiempo la expresion (10.25) toma
la forma mas general,

x(t) = (t, t0 )x(t0 ) +

Z t
0

(t, )B( )u( )d

(10.26)

Volviendo al caso invariante en el tiempo y suponiendo un vector de estado


de dimension n = 1 se tendra, haciendo A = [a]

(s) =

1
sa

es decir
(t) = eat
El anterior resultado se puede generalizar por una dimension del vector de
estado arbitraria (aunque finita) y hacer,

Representacion matematica de sistemas

179

(t) = eAt

(10.27)

en donde
(t) = eAt = I + At + ... +

Ak tk
+ ...
k!

(10.28)

Esta forma de escribir la matriz de transicion tiene un indudable interes en


desarrollos formales y en el estudio de propiedades de los sistemas dinamicos
lineales invariantes en el tiempo.
Para determinar la matriz de transicion se puede emplear varios metodos pero
aqu se consideraran solo dos:
1. empleo de la expresion (10.28) y
2. determinacion de su transformada de Laplace seg
un (s) = (sI A)1 y
posteriormente haciendo su antitransformada:
h

(t) = L1 (sI A)1

Ejemplo
Sea un sistema dinamico cuya matriz A es la siguiente

A=

1 1
0 1

Se trata de determinar la matriz de transicion (t) por los dos metodos indicados mas arriba.
1. Para emplear el desarrollo en serie (10.28) se tendra que,

A =
Luego

1 2
0 1

; A =

P k
t

k k
k!
X

A
t
eAt =
=

k!
k=0

1 3
0 1
P

; A =

tk
(k1)!

P tk
k!

1 k
0 1

et tet
0 et

Representacion matematica de sistemas

180

2. Para determinar (s) se procede como sigue:


"
1

(s) = (sI A)

s 1 1
0
s1

#1

1
=
4

"

s1
1
0
s1

siendo 4 = (s 1)2 . Hallando la antitransformada de (s) se tendra,

(t) = L1 [(s)] =

et tet
0 et

Se tiene el mismo resultado que en 1.


Llevando a la expresion (10.23) el valor de x(t) que da la expresion (10.26) se
tiene,

y(t) = C(t)(t1 , t0 )x(t0 ) + C(t)

Z t
t0

(t1 , )B( )u( ) d

(10.29)

Suponiendo que el instante inicial se estima en el pasado remoto () en que


el sistema se encontraba en reposo, se puede escribir

y(t) =

Z t

C( )(t1 , )B( )u( )d

(10.30)

Comparando las expresiones (10.30) y (3.8) se tiene que la respuesta impulsional del sistema en funcion de F , G y H se puede escribir,
h(t1 , ) = C(t)(t1 , )B( )

(10.31)

Por otra parte, y para sistemas invariantes en el tiempo, a partir de las expresiones (28) y (15) se puede escribir

H(s) =

Y (s)
= C(sI A)1 B
U (s)

(10.32)

en donde se ha tenido en cuenta que al determinar la funcion de transferencia


se parte de x(0) = 0, pues esta se define para condiciones iniciales nulas. La
expresion (35) permite determinar la funcion de transferencia a partir de las
matrices A, B y C.

Representacion matematica de sistemas

181

El problema inverso del anterior, es decir, el problema de determinar las matrices A, B y C a partir de la matriz de transferencia, ya ha sido considerado
anteriormente, en la seccion 10.2.2, para el caso de sistemas con una entrada y
una salida. Para sistemas multivariables el problema puede adquirir una notable
complejidad adicional si se trata de obtener una representacion con una dimension
del vector de estado mnima. Este problema recibe el nombre de problema de
realizacion y se estudiara mas adelante.

10.2.4

Sistemas din
amicos lineales en tiempo discreto

Para los sistemas dinamicos lineales en tiempo discreto se tienen resultados


analogos a los obtenidos en la seccion 10.2.2 para los sistemas lineales en tiempo
contnuo. Para estos u
ltimos la descripcion por variables de estado toma la forma
siguiente:

x(k + 1) = (k)x(k) + (k)u(k)


y(k) = C(k)x(k) + D(k)u(k)

(10.33)
(10.34)

En donde las matrices y vectores que aparecen tienen una interpretacion


analoga a la de las matrices y vectores de las expresiones 10.3. Igual que all,
habitualmente, D = 0 y el caso de mayor interes es aquel en que las matrices
(k), (k)yC(k) no dependen de k. Es decir, en lo que sigue se tendra,

x(k + 1) = x(k) + u(k)


y(k) = Cx(k)

(10.35)
(10.36)

Para obtener la representacion por variables de estado de un sistema descrito


por ecuaciones en diferencias finitas se procede en forma analoga a la empleada
para los sistemas descritos por ecuaciones diferenciales, teniendo presente que a
la derivada all, aqu corresponde el adelanto un perodo elemental, a la integral
el retraso, y a la transformada en s la transformada en z.
Ejemplo
Sea el sistema dinamico cuya ecuacion en diferencias es la siguiente:

Representacion matematica de sistemas

182

y(t + 3) + 4y(t + 2) + 3y(t + 1) + 2y(t) = 3u(t) + 2u(t + 1)


Este sistema admite las mismas formas canonicas de control y de observacion
que los ejemplos tratados en sistemas contnuos.
Se define la matriz de transferencia (k) de manera que,

(0) = I
(k + 1) = (k)
Es claro que a partir de (10.35) se puede escribir

x(n) = (n k)x(k) +

n1
X

(n j 1)Bu(j)

j=k

Esta expresion es analoga a la (10.25) y se puede hacer aqu las consideraciones


que all se hicieron. Observese que,
(k) = k
expresion correspondiente a la (10.27)
La respuesta impulsional, en funcion de y H, se puede escribir,
h(k) = C(k)B
y la funcion de transferencia,

H(z) =

10.2.5

Y (z)
= C(zI A)1 B
U (z)

Muestreo de sistemas en tiempo contnuo

Sea un sistema dinamico descrito por,

(10.37)

Representacion matematica de sistemas

183

x = Ax + Bu
y = Cx
Supongase que el anterior sistema se somete a una se
nal de entrada escalonada,
es decir a una se
nal de entrada tal que,
u(t) = u(kT )

para

kT t (k + 1)T

en donde k = 0, 1, 2, .... Una se


nal arbitraria u(t) puede convertirse en una
se
nal escalonada por medio de unos circuitos retenedores (sample - hold). En la
figura 8 se ilustra el proceso de escalonamiento de una se
nal u(t).
Al ser excitado el sistema 10.38 con una se
nal escalonada u(t) se obtendra una
se
nal de salida y(t). Supongase que de esta se
nal se miden solamente los valores
que toma en el conjunto discreto de tiempos t = kT para k = 0, 1, 2, ... Es decir
la se
nal de salida se muestrea de manera periodica, con un perodo T .
La evolucion del estado del sistema 10.38 vendra dada de acuerdo con (10.25),
por la expresion

x(t) = (t t0 )x(t0 ) +

Z t
t0

(t )Bu( )d

Si se hace t0 = kT y t = T (k + 1) se tendra,

x((k + 1)T ) = (T )x(kT ) +

Z (k+1)T
kT

((k + 1)T )Bu(kT )d

En la integral del segundo miembro se puede hacer el cambio de variables


= (k + 1)T con lo cual la anterior expresion queda,
Z

x(k + 1 T ) = (T )x(kT ) +
Llamando,

()Bd u(kT )

()Bd ;

(T ) =

Representacion matematica de sistemas

184

y prescindiendo de T, para simplificar la notacion, se puede escribir


x(k + 1) = x(k) + u(k)

(10.38)

expresion que, unida a y(k) = Cx(k) , permite decir que el muestreo de un


sistema dinamico en tiempo contnuo da lugar a un sistema lineal en tiempo
discreto. Observese que la matriz es precisamente el valor de la matriz de
transicion del sistema en tiempo contnuo para un valor del tiempo de T segundos.
Ejemplo
Sea el sistema cuya ecuacion diferencial es
d2 y dy
du
+
=
+ 2u
2
dt
dt
dt
El cual admite una forma canonica de control

A=

0 1
0 1

B=

0
1

C = (2 1)

y cuya funcion de transferencia es,


Y (s)
s+2
=
U (s)
s(s + 1)
Supongase que este sistema se somete a una entrada escalonada y que su salida
se muestrea, ambos procesos con periodo t = T seg. Se trata de determinar el
sistema en tiempo discreto equivalente (ver figura 9).
Se tendra

"

(s) = (sI A)1 =

Por tanto,

s 1
0 s+1

#1

1
s(s + 1)

"

s+1 1
0
s

1
s(s + 1)
1
(s + 1)

Representacion matematica de sistemas

(t) =
luego

185

1 1 et
0
et

1 0.428
0 0.572

Por otra parte

!
!
Z 1
1 1 e
0
0

d =

C = (2

!
Z 1
1 e
0

d =

0.572
0.428

1)

El proceso de muestreo al que se ha dedicado este apartado es un modelo del


que se realiza cuando se introduce un computador en un proceso

10.2.6

Sistemas no-lineales: linealizaci


on

Existen muchos problemas practicos en que los sistemas encontrados no admiten


una descripcion por medio de ecuaciones diferenciales lineales. En tal caso no
es posible, en principio, tener unas expresiones de la forma 10.3. Sin embargo,
si la ecuacion diferencial es de orden n, supongase que puede escribirse como n
ecuaciones diferenciales de primer orden, de la forma
x = f (x, u, t)

(10.39)

en donde f (.,.) es una funcion no-lineal de x y u, que se supondra, en lo que


sigue, diferenciable con respecto a sus argumentos. Observese que la expresion
(10.38) es un caso particular de la (10.39).
En tal caso se puede concebir un sistema lineal que represente el comportamiento dinamico del sistema para peque
nas perturbaciones en torno a una
trayectoria previamente determinada, llamada trayectoria nominal. Sea esta
trayectoria nominal x (t) se tendra

Representacion matematica de sistemas

186

x = f (x , u , t)
Por otra parte la trayectoria real sera la indicada por (10.39). Si las variaciones
de la trayectoria real con relacion a la nominal son peque
nas se podra escribir,

llamando x = x x y u = u u y empleando la formula de Taylor,


"

f
( x)
= f (x, u, t) f (x , u , t) =
x

"

x = x
u = u

f
x +
u

x = x
u = u

u (10.40)

Con ello se tiene el comportamiento lineal de las peque


nas perturbaciones en
torno a la trayectoria nominal.
Para fijar ideas supongase que la dimension del vector x es 2. Las ecuaciones
(10.39) toman la forma
x 1 = f1 (x1 , x2 , u, t)
x 2 = f2 (x1 , x2 , u, t)
y supongase que la trayectoria nominal viene dada por x1 (t), x2 (t) y u (t).
En tal caso se tendra que las ecuaciones (10.40) tomaran la forma

x 1
x 2

f1
x
1
=
f2
x1

f1
x2
f2
x2

x1 (t)
x2 (t)

x1 =
x2 =
u = u (t)

x1
x2

Ejemplo
Sea el sistema no-lineal descrito por

x 1 = x2
x 2 = au bx22

f1

u
u
+
f2
x1 = x1 (t)
u
x2 = x2 (t)
u = u (t)

Representacion matematica de sistemas

187

c1

c2
q1

q2

h
V, c
q

Figura 10.5: Diagrama de un deposito mezclador.


y sea la trayectoria nominal,

t2
2
= t
1
=
( + b2 t2 )
a

x1 =
x2
u

Aplicando el metodo antes desarrollado se tiene,

10.2.7

x 1
x 2

0
1
0 2bt

x1
x2

0
a

Dep
osito mezclador

En la figura 14.3 se muestra un esquema elemental de un proceso de mezcla de dos


fluidos en un deposito. Este deposito de volumen V y altura h esta alimentado
por los caudales q1 y q2 , cada uno de los cuales con concentracion c1 y c2 de un
determinado producto qumico. La concentracion de este producto en el deposito
es c. El deposito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizacion de las concentraciones de los
caudales de entrada se produce instantaneamente gracias a la accion de unas

Representacion matematica de sistemas

188

palas batidoras. Se supone, as mismo, que la densidad es constante en el interior


del deposito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
= q1 (t) + q2 (t) q(t)
dt

(10.41)

d[c(t)v(t)]
= c1 (t)q1 (t) + c2 (t)q2 (t) c(t)q(t)
dt

(10.42)

El flujo de salida del deposito viene dado por


q

q(t) = k h(t) = k

v(t)
a

(10.43)

En donde k es una constante y a es el area del deposito. De modo que v = ha.


Supongase un estado estacionario de funcionamiento en el que se produce un
equilibrio entre las entradas y salidas del deposito, para los siguientes valores de
los flujos de entrada y salida, as como del volumen en el deposito v0 y de su
concentracion c0 .
q1 (0) = q10 , q2 (0) = q20 , q(0) = q0 , v(0) = v0 , c(0) = c0
Convienen observar que las concentraciones de entrada c1 y c2 se establecen en
la etapa anterior del proceso. En estas condiciones de regimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q10 + q20 q0
0 = c1 q10 + c2 q20 c0 q0
r
v0
q0 = k
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones suficientemente peque
nas como para justificar la linealizacion.
Conviene observar que el proceso que se esta considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuacion (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresion
(14.7) liga q con v (o con h) mediante una relacion no lineal (la raz cuadrada).

Representacion matematica de sistemas

189

Las variaciones de las distintas variables con respecto a los valores tomados
en regimen estacionario se denotaran mediante un tilde sobre la variable correspondiente. Es decir,
q(t) = q(t) q0
representa la variacion del caudal q respecto al valor estacionario q0 . Analogamente
se definen el resto de las variables
v(t) = v(t) v0
q1 (t) = q10 + q1 (t)
q2 (t) = q20 + q2 (t)
c(t) = c0 + c(t)
Si las variaciones son suficientemente peque
nas, entonces la expresion no lineal (14.7) se puede linealizar en torno al valor correspondiente por regimen estacionario, de acuerdo con
q

k v(t)
q(t) q0 =
|v=v0 (v(t) v0 )
a v(t)
Es decir

k
q(t) =
2v0

v0
v(t)
a

(10.44)

De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las definiciones de las variaciones v(t), q1 (t), q2 (t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definicion del regimen estacionario y
(14.8) se tiene que
d
v (t)
1 q0
= q1 (t) + q2 (t)
v(t)
dt
2 v0
d
v (t)
1 c 0 q0
d
c(t)
v0 + c0
= c1 q1 (t) + c2 q2 (t)
v(t) q0 c(t)
dt
dt
2 v0
=

v0
q0

Representacion matematica de sistemas

190

Si se escribe
x1
x2
u1
u2
y1
y2

=
=
=
=
=
=

y
=

v
c
q1
q2
q
c
v0
q0

se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:

x 1
x 2

1

2
=

1
0
x + c1 c0
1

v0

1
c2 c0 u
v0

Sistema dinamico lineal que describe el comportamiento del sistema perturbado


en torno al regimen estacionario.

Tema 11
Controlabilidad y observabilidad
de sistemas din
amicos
11.1

Introducci
on

La descripcion interna de un sistema dinamico lineal suministra modelos para


la representacion de una amplia clase de sistemas dinamicos encontrados en la
practica. Esta descripcion reposa sobre la existencia de la terna (A, B, C) que
caracteriza completamente su comportamiento dinamico.
Asociados a la descripcion interna de un sistema lineal emergen dos conceptos
que tienen una importancia capital y cuya sola existencia justifica la adopcion
de la descripcion interna frente a la externa. Son los conceptos de controlabilidad y de observabilidad. Su formulacion da respuesta precisa a dos cuestiones
fundamentales:
1. Se puede determinar el estado de un sistema a partir de la observacion de
la salida?.
2. Se puede determinar una se
nal de entrada que transfiera el sistema de un
estado a otro?
La controlabilidad y la observabilidad son propiedades de la descripcion interna de los sistemas dinamicos. Estas propiedades se refieren, respectivamente,
a la influencia de la entrada sobre el estado y del estado sobre la salida.
191

Controlabilidad y observabilidad de sistemas dinamicos

192

No es necesario insistir aqu sobre el interes de esos conceptos puesto que


quedara ampliamente puesto de manifiesto en todo lo que sigue.
Historicamente ambos conceptos no aparecieron a la vez. El de controlabilidad, mas antiguo, fue empleado por Pontryagin en sus trabajos sobre el principio del maximo. Sin embargo corresponde a Kalman el primer tratamiento
sistematico de ambos, as como el establecimiento de las relaciones entre ellos
(dualidad), y sobre todo su amplia difusion, por lo que es frecuente leer que ha
sido Kalman el introductor de estos conceptos.
En lo que sigue se estudiara la controlabilidad y la observabilidad de los sistemas lineales invariantes en el tiempo. Se estudiaran a su vez criterios para
determinar si un sistema dinamico lineal es, o no, controlable u observable. De
todo ello se extraeran conclusiones practicas para abordar el problema de sntesis
que sera tratado en el captulo siguiente. Se vera como todo ello se reduce a
propiedades algebraicas de la terna (A, B, C).

11.2

Controlabilidad de sistemas din


amicos lineales

El concepto de controlabilidad pretende dar un significado preciso a la idea de


transicion entre estados. Dada la importancia del concepto de estado en la descripcion de los sistemas dinamicos, interesa estudiar bajo que condiciones sera
posible conducir un determinado sistema a un cierto estado. De manera intuitiva la nocion de conducir el sistema a un determinado estado es equivalente
a la de controlarlo.
De una manera general se dira que un sistema es controlable si para cada
transicion entre estados que se desee realizar existe una se
nal de control que la
realice. El tiempo de la transicion entre estados se supone finito y la se
nal de
control se supone sin ninguna clase de restricciones. Para precisar los conceptos
se introducen las siguientes definiciones.

11.2.1

Estados alcanzables

El conjunto de estados alcanzables desde el estado x, Ax , esta formado por los


elementos x1 X para los que existe una se
nal de entrada u(t), definida en un

Controlabilidad y observabilidad de sistemas dinamicos

193

cierto intervalo (t0 , t1 ) tal que


(t1 , t0 , x, u(t0 , t1 )) = x1
El espacio de estados X de un sistema dinamico
x si Ax = X.

se dice alcanzable desde

En la figura 11.1 se ilustra el concepto de conjunto de estados alcanzables desde


x. Normalmente el estado que se toma de referencia para definir el conjunto de
estados alcanzables es el estado de reposo x = 0.

x=0

u1
u2
Ax
u3

Figura 11.1: Ax = Conjunto de estados alcanzables desde x = 0


La alcanzabilidad exige que la aplicacion (., t0 , x, .) sea suprayectiva.
El concepto de controlabilidad se tiene como contra parte del de alcanzabilidad
invirtiendo el tiempo.

11.2.2

Estados controlables

Se define el conjunto de estados controlables a x, Cx , como el formado por los


elementos x1 X para los que existe una se
nal de entrada u(t), definida en un
cierto intervalo (t0 , t1 ) tal que
(t1 , t0 , x1 , u(t0 , t1 )) = x
Un sistema dinamico se dice controlable a x si Cx = x.
Un sistema dinamico se dice controlable si es controlable al origen.

Controlabilidad y observabilidad de sistemas dinamicos

194

Las consideraciones hechas mas arriba respecto al concepto de alcanzabilidad


son validas aqu respecto al de controlabilidad. En la figura 11.2 se ilustra el
conjunto Cx .

u1

Cx

x=0

u2
u3

Figura 11.2: Cx = Conjunto de estados controlables a x


En algunos casos se define la controlabilidad a la se
nal de salida ademas de a
los estados, sin embargo, en estos apuntes el concepto de controlabilidad que se
manejara es el definido mas arriba.

11.2.3

Estados conectados

El espacio de estados X de un sistema dinamico se dice conectado, si para cada


par de estados x0 , x1 , X existe una se
nal u(t), definida en un cierto intervalo
(t0 , t1 ) tal que
(t1 , t0 , x0 , u(t0 , t1 )) = x1
Es evidente que si el espacio de estados esta conectado, el sistema sera alcanzable y controlable. Es decir, que
conexion alcanzabilidad + controlabilidad
Los conceptos de alcanzabilidad, controlabilidad y conexion entre estados,
son equivalentes entre s para los sistemas dinamicos lineales estacionarios. Este
hecho justifica el que en lo que sigue se hable exclusivamente del concepto de
controlabilidad.
Ejemplo

Controlabilidad y observabilidad de sistemas dinamicos

195

Sea el sistema de la figura 11.3. Para su descripcion interna se requieren dos


variables de estado x1 y x2 , que se puedan identificar con las cargas de cada uno
de los condensadores. Si la se
nal de entrada es la tension que se aplica a las formas
correspondientes, es claro que se puede transferir a x1 o a x2 a cualquier valor;
sin embargo, no se puede transferir a x1 y a x2 a un par de valores arbitrarios.
Por lo tanto la ecuacion que describe el comportamiento de este sistema no es
controlable.
Los conceptos de controlabilidad, alcanzabilidad y conexion se refieren a las
posibles transferencias en el espacio de estados que resultan de la aplicacion de
se
nales de entrada. El concepto de controlabilidad se refiere a la transferencia de
un estado inicial arbitrario a una trayectoria deseada. Normalmente la trayectoria
deseada es un punto de equilibrio. Este es el caso que se ha considerado aqu,
tomandose ademas el elemento cero de X para representar este equilibrio.

x1

x2

u
R

Figura 11.3: Ejemplo de sistema no controlable

11.3

Controlabilidad de los sistemas en tiempo


discreto

Aunque en este curso nos ocupamos fundamentalmente de sistemas en tiempo


continuo, la introduccion del concepto de controlabilidad se hace de forma mucho
mas sencilla en el caso de los sistemas dinamicos en tiempo discreto. Por ello, en
primer lugar nos vamos a ocupar de la controlabilidad de un sistema de este tipo.

Controlabilidad y observabilidad de sistemas dinamicos

11.3.1

196

Ejemplos de introducci
on

Sistema controlable.
Sea el sistema de posicionamiento de un cilindro, de inercia unitaria, sometido
a un par u(t), suponiendo que el rozamiento sea despreciable. Este sistema
representa una version idealizada del problema del posicionamiento de un
satelite en un plano. Sus ecuaciones se pueden escribir
"

x =

0 1
0 0

"

x+

0
1

es decir:
"

A=

0 1
0 0

"

B=

0
1

se tiene:
"

(sI A)1 =

s 1
0
s

#1

1
s2

"

s 1
0 s

s
=

1
s2

1
s

por tanto
"

(t) =

1 t
0 1

"

(T ) =

1 T
0 1

Conviene recordar que la matriz de transicion entre estados en un sistema


en tiempo discreto viene dada por:

Z (k+1)T
kt

((k + 1)T ) Bd

= kT
=

Z T
0

(t )B = d

= T
=

Z T
0

()Bd

De acuerdo con lo cual, la matriz de transicion entre estados para el sistema


en tiempo discreto de posicionamiento del cilindro resulta ser:

Controlabilidad y observabilidad de sistemas dinamicos

Z T
0

(t )Bd =

#
# "
Z T"
0
1
0

0 1

d =

197

#
Z T"

"

d =

T 2 /2
T

Por tanto el sistema en tiempo discreto (tambien llamado sistema muestreado)


sera:
"

xk+1 = Axk + Buk =

1 T
0 1

"

xk +

T 2 /2
T

Supongamos que se aplica una se


nal uo , en el instante t = 0, con las
condiciones iniciales xo = [ ]T , lo que hace que en el primer instante
de muestreo se alcance el estado
x1 = Ax0 + Bu0
x1,1 = + T + (T 2 /2) u0
x2,1 = + T u0
Si con la se
nal uo que hemos aplicado pretendiesemos transferir el estado
inicial [] al origen del espacio de estado; es decir si quisiesemos x1,1 =
x2,1 = 0 entonces tendramos:
+ T + (T 2 /2) u0 = 0
es decir
u0 =

( + T )
T 2 /2

Pero tambien se ha de cumplir:


+ T u0 = 0
u0 =

Controlabilidad y observabilidad de sistemas dinamicos

198

Por tanto, para que exista una se


nal uo que transfiera en un solo paso el
estado [, ] al origen se requiere que este estado no sea uno cualquiera,
sino que este situado en la region del espacio de estados definida por la
expresion:
=

+ T
T /2

T = 2 + 2T
2 + T = 0
En consecuencia, no es posible transferir un estado arbitrario del espacio
de estados, en un solo paso, al origen. Veamos que sucede si en lugar de
considerar un solo paso, consideramos dos; es decir una secuencia de se
nales
sucesivas uo , u1 . En tal caso se tendra:
x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = + 2T + (3T 2 /2)u0 + (T 2 /2)u1
x2,2 = + T u0 + T u1
Si, como en el caso anterior, se pretende llevar un estado arbitrario [] al
origen; es decir
para x2,1 = x2,2 = 0
(3T 2 /2) u0 + (T 2 /2)u1 = 2T
T u0 + T u1 =
Se trata de resolver este sistema de ecuaciones en uo y u1 . Para que ese
sistema lineal de ecuaciones tenga solucion se requiere que el determinante
de la matriz de la parte izquierda del sistema sea no singular, lo que efectivamente sucede en este caso.
"

det

3T 2 /2 T 2 /2
T
T

T3 T3

= T 3 6= 0
=3
2
2

Controlabilidad y observabilidad de sistemas dinamicos

199

Por tanto, para una posicion arbitraria del estado [] existe una secuencia
de se
nales de actuacion sobre el sistema uo u1 que transfiere ese estado arbitrario al origen. En tal caso estamos autorizados para decir que el sistema
es controlable al origen, de acuerdo con la definicion que hemos introducido
mas arriba.
Sistema no controlable.
Consideremos ahora el sistema definido por las ecuaciones:
"

xk+1 = Axk + Buk =

1 1
0 2

"

xk +

1
1

uk

Y como se ha hecho en el caso anterior supongase que se trata de transferir


un estado inicial arbitrario [] al origen. En primer lugar, considerese el
caso de un solo paso, en el que se aplica la se
nal uo .
x1 = Ax0 + Bu0
El estado que se alcance despues de aplicar esta se
nal sera:
x1,1 = + + u0
x2,1 = 2 + u0
Si se quiere que este estado alcanzado sea precisamente el origen, es decir,
si se quiere que x1,1 = x2,1 = 0 entonces es facil ver que ello solo sera posible
si = . Es decir, existe un subespacio del espacio de estados, formado
por la recta que define la bisectriz del primer cuadrante, tal que si el estado
inicial se encuentra sobre esta recta entonces con un solo paso es posible
llevar ese estado al origen. Esta recta representa lo que se conoce como
subespacio controlable del sistema.
x1,1 = x2,1 = 0 =
lo que define el subespacio controlable en un solo paso.
Veamos ahora que sucede si aplicamos una secuencia de dos pasos uo u1 . En
tal caso se tiene que el estado alcanzado es:

Controlabilidad y observabilidad de sistemas dinamicos

200

x2 = A2 x0 + ABu0 + Bu1
es decir
x2,1 = + 3 + 2u0 + u1

x2,2 = 4 + 2u0 + u1
De nuevo queremos transferir el estado [] al origen; es decir, se quiere que
x2,1 = x2,2 = 0. En tal caso se tiene que los valores tomados por la se
nal de
entrada uo y u1 deberan satisfacer el sistema de ecuaciones lineales:
2u0 + u1 = 3

2u0 + u1 = 4
Pero este sistema de ecuaciones carece de solucion, puesto que:
"

det

2 1
2 1

=0

El sistema solo es controlable si se cumple a la vez


+ 3 = 4 =
Es decir, de nuevo nos encontramos en la misma condicion que se haba encontrado para el caso de un solo paso. El subespacio controlable sigue siendo
exclusivamente la bisectriz que atraviesa el primer y tercer cuadrantes.
Si en lugar de considerar dos pasos, consideramos tres mediante la frecuencia
uo u1 u2 , entonces el estado alcanzado ser:
"

x3 =

+ 7 + 4u0 + 2u1 + u2
8 + 4u0 + 2u1 + u2

Controlabilidad y observabilidad de sistemas dinamicos

201

El lector comprobara facilmente que nuevamente esta ecuacion solo tiene


solucion si = .
Nos encontramos, por tanto, en este segundo ejemplo con un sistema del que
no podemos decir que sea controlable; es decir, del que dado un estado inicial
arbitrario no podemos determinar una secuencia de entrada que lo transfiera al
origen. solamente, si el estado inicial se encuentra en una cierta region privilegiada, que denominamos subespacio controlable, es posible esta transferencia.
Lo que se acaba de ver para estos dos ejemplos concretos es facilmente generalizable para un sistema cualquiera en tiempo discreto:
xk+1 = Axk + Buk
En tal caso, para una secuencia de entrada de p se tendra que el estado que
se alcanza ser:
xp = Ap x0 + Ap1 Bu0 + Ap1 Bu1 + + ABup2 + Bup1
es decir
Ap1 Bu0 + Ap2 Bu1 + + ABup2 + Bup1 = Ap x0
Para el caso p = n se tendra:
An x0 = An1 Bu0 + An2 Bu1 + + ABun2 + Bun1
Lo que se puede escribir, con notacion matricial

.
.
.

An x0 = [An1 B .. ..AB ..B]

u0
u1
...
un1

Para que este sistema de ecuaciones tenga solucion, de modo que dado un
estado inicial arbitrario xo se pueda determinar una secuenciauo u1 u2 . . . un1 se
requiere que la matriz C sea de rango completo.

Controlabilidad y observabilidad de sistemas dinamicos

11.3.2

202

Controlabilidad de sistemas en tiempo continuo

La controlabilidad de los sistemas en tiempo continuo aunque conceptualmente


sea la misma que la de los sistemas en tiempo discreto, sin embargo resulta un
poco mas difcil de analizar. Vamos a considerar alg
un ejemplo introductorio que
nos allane el camino.
Ejemplo
Sea el sistema definido por las ecuaciones
x 1 = u
x 2 = ax2
y = x1 + x 2
cuya representacion en forma de diagrama de bloques se tiene en la figura 11.4
De la observacion de la figura se desprende claramente que x2 es una variable de
estado no controlable.
u

x1

x2

Figura 11.4: Diagrama de bloques de un sistema no controlable


Sin embargo, la variable de estado x1 s es controlable; es decir, cualquiera que
sea el valor que tome esta variable de estado x1 puede ser llevada al origen (x = 0)
en un tiempo finito. Basta para ello encontrar una trayectoria x1 (t) que una x1 (0)
con x1 ( ) = 0, en donde es el tiempo finito de transicion entre estados. Por
ejemplo si se adopta una recta, tal como se hace en la figura 11.5, entonces la

Controlabilidad y observabilidad de sistemas dinamicos

203

se
nal de entrada u(t) que debe aplicarse en el intervalo (0, ), se calcula facilmente
de acuerdo con

u(t) =

d
x1 (t)
dt

para

t [0, ]

x1

seg

Figura 11.5: Trayectoria de x1


Debe observarse que aunque la variable x2 no sea controlable, sin embargo
s afecta a la salida, hasta el extremo de que si a es negativa, el sistema sera
inestable.

11.3.3

Criterio de controlabilidad

Para sistemas estacionarios, que son los que se consideraran en estos apuntes,
existe un criterio muy simple que permite establecer si un cierto sistema dinamico
es controlable o no. Este criterio se basa en unas propiedades algebraicas del par
(A, B). Este criterio se establece con el siguiente teorema.
Teorema
Un sistema

es controlable si y solo si
rango C = n

.
. .
en donde C B ..AB .......An1 B y n = dim X.

Controlabilidad y observabilidad de sistemas dinamicos

204

La matriz C recibe el nombre de matriz de controlabilidad.


Demostraci
on
1. Necesidad
Se trata de demostrar que si el sistema es controlable entonces se cumple
que el rango de la matriz de controlabilidad es n.
(sistema controlable rango C = n)
Se sabe
x(t1 ) = e

At1

x(0) +

Z t1
0

eA(t ) Bu( ) d

(11.1)

Se toma seg
un la definicion de controlabilidad, x(t1 ) = 0.
Luego,
0 = eAt1 x(0) +

Z t1
0

eA(t1 ) Bu( ) d

Premultiplicando por eAt1 se tiene,


x(0) =

Z t1

eA Bu( ) d

Por otra parte, recuerdese que


A

X
Ai ti
i=0

i!

ademas, (s) = (sI A)1 , luego (A) = 0 y, por tanto,


An + a1 An1 + ... + an1 A + an I = 0
es decir, An es combinacion lineal de las n 1 potencias de A. Combinando
estos dos resultados, se tiene que
eA =

n1
X

i ( )Ai

i=0

luego
x(0) =

n1
X
i=0

AB

Z t1
0

i ( )u( ) d

(11.2)

Controlabilidad y observabilidad de sistemas dinamicos

205

se definen las funciones auxiliares


i (0, t1 ) =

Z t1
0

i ( )u( ) d

con lo que (11.2) puede escribirse


x(0) =

n1
X

Ai Bi

(11.3)

i=0

es decir:

x(0) =

B AB AB

... A

n1

0
1
..
.

n1
Puesto que x(0) es arbitrario la anterior expresion implica que debe ser
posible representar cualquier vector como una combinacion lineal de las
columnas de C. Luego, seg
un la definicion de controlabilidad, que el sistema
sea controlable implicara (es necesario) que rango C = n.
2. Suficiencia
Se trata de demostrar que si el rango de C es n, entonces el sistema es
controlable, es decir, existe una se
nal de entrada que lo transfiere al origen.
Formalmente,
rango C = n sistema controlable
Sea
rango C = n
Si se aplica al sistema una se
nal
u(t) = u0 (t) + u1 (1) (t) + + un1 (n1) (t)

(11.4)

en donde ui son vectores de dimension n y (k) (t) representa la derivada k


- esima de (t) y que tiene la propiedad
Z

(k) (t ) f ( ) d =

x(0) = C

u0
u1
..
.
un1

dk f (t)
dtk

Controlabilidad y observabilidad de sistemas dinamicos

206

Luego si rango C = n, entonces admite solucion el anterior sistema de


ecuaciones lineales con n incognitas, que son los valores de ni para i =
0, n = 1.
Es decir, si rango C = n el sistema es controlable ya que es posible construir
una (al menos) se
nal de entrada tal como la de la expresion (2) que transfiera
al sistema desde un estado arbitrario x(0) al origen x(t1 ) = 0.

11.3.4

Ejemplos de controlabilidad

Se presentan en este apartado algunos ejemplos de aplicacion del criterio de controlabilidad que, ademas ayuden a captar el sentido fsico de este concepto.
Ejemplo 1
Sea el sistema de la figura 11.6, al que corresponden las ecuaciones:

x1

-1
u
+1

x2

-2

Figura 11.6: Diagrama de bloques del ejemplo 1

x 1 = x1 + u
x 2 = x1 2x2 + u

Controlabilidad y observabilidad de sistemas dinamicos

207

es decir
"

A=

1 0
1 2

"

B=

1
1

Si se aplica el criterio de controlabilidad a este sistema se tiene que:


"

C=

1 1
1 1

det C = 0

Por tanto el sistema no es controlable. Este es un ejemplo de un sistema que


aparentemente es controlable, ya que al observar la figura del diagrama parece que
tanto x1 como x2 son accesibles desde la entrada u, pero que luego se comprueba
que no lo es.
Este ejemplo nos pone en alerta sobre una interpretacion intuitiva de la controlabilidad basada en los diagramas de la descripcion interna.
Ejemplo 2
Recordando el ejemplo de un deposito en el que se mezclaban dos fluidos con
caudales Q1 Q2 , de un fluido con una cierta sustancia en disolucion. Sucede que si
estos dos caudales tienen la misma concentracion; es decir C1 = C2 = Cc entonces
el sistema deja de ser controlable. En efecto, las ecuaciones correspondientes son

1

2
x(t) =

1 x(t) +

"

1 1
0 0

u(t)

El diagrama correspondiente se tiene en la figura 11.7 la entrada (en realidad


las dos entradas) u(t) afecta u
nicamente a la variable x1 (t), es decir el incremento
de volumen. La variable x2 (t), el incremento de concentracion, no tiene conexion
con la entrada, y por tanto no puede ser afectado por ella. Es decir, es imposible
mover x2 (t) desde un estado inicial arbitrario x2 (to ) a un estado determinado
x2 (t1 ) en un intervalo de tiempo finito (to , t1 ). En este ejemplo se ve fsicamente el
significado de controlabilidad. Si C1 6= C2 entonces el sistema es completamente
controlable, como puede verificar facilmente el lector.
Ejemplo 3: La varilla vertical

Controlabilidad y observabilidad de sistemas dinamicos

s1

208

x2 (0)

x1 (0)

s1

s1

x
2 (s)

s1

x
1 (s)
1
2

u
1 (s)
u
2 (s)

Figura 11.7: Diagrama de bloques del ejemplo 2


Considerese una varilla de longitud L cuya masa M esta concentrada en su
parte superior, tal como se indica en la fig.11.8. A partir de las leyes de Newton
se sabe que el sistema esta gobernado por la ecuacion

Figura 11.8: Varilla vertical


= g sen (t)
u(t)cos (t) + L(t)
en donde g es la constante de gravitacion. Por otra parte se tiene tambien la
relacion
x(t) = u(t) + L sen (t)

Controlabilidad y observabilidad de sistemas dinamicos

209

Si la varilla se encuentra muy proxima a la posicion vertical (es decir muy


peque
no) las dos ecuaciones anteriores pueden reescribirse en funcion de x(t)
como sigue:
x(t) =

g
[x(t) u(t)]
L

Para simplificar la ecuacion se hace L = 1. El anterior sistema se puede


escribir en el espacio de estados, llamando x1 = x(t) y x2 = x(t).

"

x 1
x 2

"

0 1
g 0

# "

x1 (t)
x2 (t)

"

+ g

0
1

u(t)

siendo la matriz de controlabilidad


"

C=g

0 1
1
0

puesto que C es no-singular, el sistema es completamente controlable, lo que


coincide con nuestra experiencia.
Este ejemplo representa una version simple de un problema mas general que
presentan muchos sistemas mecanicos en los que aparecen problemas de balanceo tales como el mantenimiento de un satelite en su orbita, el control de
un helicoptero o un cohete cuando asciende verticalmente.

11.4

Notas sobre controlabilidad

11.4.1

Controlabilidad de sistemas monovariables

Sea el sistema

descrito por la ecuacion diferencial


(sn + sn1 a1 + + an )y = (b0 sm + + bm )u

d(s)y = n(s)u

Controlabilidad y observabilidad de sistemas dinamicos

210

Entonces
es controlable si y solo si los polinomios n(s) y d(s) no tienen
factores comunes.
Se puede dar un razonamiento intuitivo a lo anterior: si n(s) y d(s) tienen un
P
P
factor com
un, entonces existe un , equivalente (externamente) a , y tal que
es de orden menor que n.

11.4.2

Transformaci
on de la matriz de Controlabilidad

Al cambiar de bases el vector de estados x, la matriz de controlabilidad se transforma como sigue


x = Tx
es decir
b = Tb

A = T AT 1
luego
C=T C

11.4.3

Forma simplificada del criterio de controlabilidad

Si el rango B = r el criterio de controlabilidad se simplifica a

rango

.
. .
B ..AB .......Anr B = n

La demostracion del anterior criterio simplificado esta basada en el siguiente


lema.

Controlabilidad y observabilidad de sistemas dinamicos

211

Lema
Si k es un entero tal que

rango

.
. .
.
. .
B ..AB .......Ak1 B = rango B ..AB .......Ak B = p

entonces

rango

.
. .
B ..AB .......Ae B = p para todo e k 1

Demostraci
on
El hecho de que

rango

.
. .
B ..AB .......Ak1 B = rango

.
. .
B ..AB .......Ak B

significa que toda columna de la matriz Ak B es linealmente dependiente de


las columnas de las matrices B, ...Ak1 B. Por lo tanto todas las columnas de
Ak + 1B son linealmente dependientes de las columnas de AB, ..., Ak B. Procediendo de esta manera y por induccion se completa la demostracion.
Por el anterior lema, el rango de la matriz C debe incrementarse en, al menos,
una unidad cuando se a
nade un nuevo termino, hasta que se alcanza el rango
maximo n. Por lo tanto si
rango B = r
entonces es suficiente incluir a lo sumo nr terminos de la forma AB, ...Anr B
para ver si el rango maximo de C puede ser alcanzado.

11.4.4

La controlabilidad como propiedad gen


erica

Supongase que se tiene una clase SR de sistemas dinamicos indicados por un


parametro r R. Supongase ademas que un sistema Sr posee una determinado propiedad. Esta propiedad se dice que es generica en R si Sr posee esta

Controlabilidad y observabilidad de sistemas dinamicos

212

propiedad para todo r R, siendo R un conjunto abierto y denso en R. Las


propiedades genericas son muy importantes ya que si R es el conjunto de valores
de los parametros en los que se toman las aproximaciones hechas en el modelado de un sistema, debido a la falta de conocimiento preciso de los valores de los
parametros, es claro que solo las propiedades genericas tendran una interpretacion
real. Puesto que el ser de rango completo es una propiedad generica de las matrices escogidas al azar en Rnn , es claro que la controlabilidad es una propiedad
generica. Sin embargo en la practica esta cuestion no resulta tan simple ya que
b (y C mas adelante cuando se hable de observabilidad) en la practica describen
conexiones que existen entre el sistema y el mundo exterior. Si la conexion no
existe, entonces el elemento correspondiente de b es exactamente 0 y no tiene
sentido el plantearse su perturbacion infinitesimal para obtener un incremento de
rango. Por lo tanto, la genericidad debe realmente definirse separadamente para
cada sistema y la cuestion de la controlabilidad es genuinamente importante.

11.5

Descomposici
on del espacio de estados en
sus partes controlables y no controlables
P

El hecho de que el espacio de estados X de un sistema dinamico no sea controlable, no implica que alg
un subespacio de X no lo pueda ser. Es decir, el hecho
de que todas las componentes del vector de estados no puedan ser transferidas al
origen en un tiempo finito, por aplicacion de una se
nal de control conveniente, no
implica que determinadas de estos componentes no puedan ser transferidas. El
problema de la descomposicion del espacio de estado en sus partes controlables
y no controlables, reside, precisamente, en la determinacion de que componentes
del vector de estados son controlables. Con ello se subdivide el espacio de estados en dos subespacios, el uno de estados controlables y el otro el de estados no
controlables.
Sea el sistema

x = Ax + Bu

y = Cx
Cuya matriz de controlabilidad sera:

Controlabilidad y observabilidad de sistemas dinamicos

C = B AB ... An1 B

213

tal que
rango C = n1 < n
En tal caso existe una transformacion no singular T tal que

TC =

C1
0

en donde C1 : n1 nm y rango C1 = n1 . La obtencion T se hace determinando


una matriz equivalente a la (C I) de manera que

..
C
.
1

..
..

C . I
. T
.
0 ..

La matriz T tiene la notable propiedad de que transforma el espacio de estados


de suerte que los subespacios controlables y no controlables son evidentes. En
efecto, si
x = Tx
la matriz de controlabilidad sera

C = TC =

=
=

C1
0

C11 C12 ... Cn


0
0
0

B AB An1 B

Por otra parte la matriz se descompone en dos bloques

(11.5)

Controlabilidad y observabilidad de sistemas dinamicos

B=

B1
B2

214

(11.6)

siendo B1 de dimension n1 m y B 2 de dimension (n n1 ) m.


Por inspeccion, observando C y B, es claro que B = 0.
Se descompone

A=

A11 A12
A21 A22

(11.7)

en donde A11 = n1 n1 y el resto de los bloques tienen las dimensiones


correspondientes. Se tiene que

AC =

A11 A12
A21 A22

Por otra parte


AC =

C1
0

A11 C1
A21 C1

AB A2 B ... An B

(11.8)

(11.9)

A partir de la expresion (3), se sabe que las (nn1 ) u


ltimas filas de C son igual
n
a cero. Por otra parte se sabe que A puede expresarse como una combinacion
lineal de = Ai , para i 1...n 1, seg
un

A =

n1
X

i A

i=0

De lo anterior se desprende:
los n 1 primeros bloques en que se ha particionado AC en (7) son tales
que tienen las (n n1 ) u
ltimas filas nulas.
n1

ltimo de los bloques, es decir, A B, sus (n n1 )


por lo que respecta al u
u
ltimas filas tambien nulas, debido a que este bloque puede considerarse
una combinacion lineal de los anteriores.

Controlabilidad y observabilidad de sistemas dinamicos

215

Por lo tanto si las (n n1 ) u


ltimas filas de AC son igual a cero, se concluye
observando (6) que A21 = 0, puesto que C 1 no es nulo. Luego

A=

A11 A12
0 A22

B=

B1
0

Lo anterior conduce a descomponer el espacio de estados X en dos subespacios


X1 y X2 , tales que
X = X1 X2
siendo la dim x1 = n1 y dim x2 = n n1 . El subespacio X1 representa los
estados controlables y el subespacio X2 los no controlables. En efecto,
x 1 = A11 x1 + A12 x2 + B 1 u
x 2 = A22 x2
y = c 1 x1 + c 2 x2
Las anteriores expresiones se pueden interpretar con ayuda de un diagrama
como se hace en la fig.11.9. En este diagrama se observa claramente como las
variables de estado comprendidas en x1 son accesibles a partir de la se
nal de
mando u, mientras que la x2 no lo son. Debe observarse que las variables de
estado no controlables afectan no solo a la salida, sino tambien a la propia parte
controlable del sistema
P

La funcion de transferencia de
depende exclusivamente de (A11 B 1 , c1 ) ya
que, por definicion de F de T , esta se obtiene considerando condiciones iniciales
nulas y para x2 (0) = 0 se tendra x2 (t) = 0 para todo valor de t > 0. Es decir,
a partirse condiciones iniciales nulas los estados no controlables permanecen en
reposo.
Ejemplo
Sea el sistema

1 0
0
1

2 B= 1
A= 1 1

1 0 1
1

Controlabilidad y observabilidad de sistemas dinamicos

216

x1

1 u
x1 = A11 x1 + A12 x2 + B

C1

C2

x2
2

x2 = A22 x2

Figura 11.9: Diagrama de bloques de un sistema no controlable


Su matriz de controlabilidad sera

1 1
1

1
C= 1 0

1 0 1
Para determinar T se hace

1 1
1 1 0 0
1
1 1
1 0 0

1 0 1 0
(C I) = 1 0
0 1 0 1 1 0
1 0 1 0 0 1
0
1 0
1 0 1

1
1 1
1 0 0

0
1
0
1
1 0

0
0 0
0 1 1
Luego

Controlabilidad y observabilidad de sistemas dinamicos

217

1 0 0

T =
1 1 0
0 1 1
Para determinar T 1 se hace

1 0 0 1 0 0
1 0 0 1 0 0

(T I) = 1 1 0 0 1 0 0 1 0 1 1 0

0 1 1 0 0 1
0 1 1 0 0 1

1 0 0
1
0 0

0
1
0
1
1 0

0 0 1 1 1 1
Luego

T 1

1
0 0

1 0
= 1

1 1 1

A partir de T y T 1 se tendra

A = T A T 1

1
0 2

=
1 1 2
0
0 1

B=TB= 0
0
Es decir

1
0 0
1

x = 1 1 2 x + 0 u
0
0 1
0
El subsistema controlable sera

Controlabilidad y observabilidad de sistemas dinamicos

d
dt

11.6

x1
x2

1
0
1 1

x1
x2

218

1
0

Observabilidad de sistemas din


amicos lineales

El concepto de estado tiene una importancia capital al considerar la descripcion


interna de los sistemas dinamicos. Sin embargo, se recordara que el concepto de
estado ha sido introducido como un objeto abstracto, sin ninguna referencia, en
principio, a magnitudes fsicas medibles. Es decir, en un sistema las se
nales que
son medibles son las de entrada u y las de salida y, siendo el estado x un concepto
abstracto que se introduce para simplificar el tratamiento formal de los sistemas
dinamicos. Por lo tanto un problema de interes basico sera el de determinar a
partir de las se
nales que son accesibles, es decir, las se
nales de entrada y de salida
del sistema, el estado en una de las representaciones.
Observabilidad
La observabilidad se refiere a la posibilidad de reconstruccion del estado a
partir de la medida de las se
nales de salida y de entrada. Sin embargo, se pueden
considerar dos problemas separados a la hora de considerar la reconstruccion del
estado. Uno de ellos trata de deducir el valor del estado en el instante presente a
partir de las observaciones pasadas, y el otro trata de deducir el valor del estado
en un instante determinado a partir de observaciones posteriores. Con el fin de
precisar estos conceptos se establecen las siguientes definiciones.

11.6.1

Introducci
on a la observabilidad

1. Sistemas en tiempo discreto


Ejemplo
Sea el sistema autonomo (es decir, el sistema con u(t) = 0):

x1 (k + 1) = x1 (k) + x2 (k)
x2 (k + 1) = 2x2 (k)
x(k + 1) = Ax(k)

Controlabilidad y observabilidad de sistemas dinamicos

y(k) = x1 (k)
"

A=
C=

1 1
0 2
1 0

Se mide el sistema en los k = 0 y k = 1.

y(0) = Cx(0) = x1 (0)


y(1) = Cx(1) = CAx(0) = x1 (0) + x2 (0)
luego

y(0) = x1 (0)
y(1) = x1 (0) + x2 (0)

x1 (0) = y(0)
x2 (0) = y(1) y(0)
2. Sistema no observable
Sea A como antes pero
y(k) = x2 (k)
C=

0 1

entonces se tendra

y(0) = x2 (0)
y(0) = Cx(0) = 2x2 (0)

219

Controlabilidad y observabilidad de sistemas dinamicos

220

luego
x2 (0) = y(0) =

1
y(1)
2

pero no se puede determinar x1 (0). El sistema no es observable [debido a


la dependencia lineal entre C y CA ].
3. Caso general

xk+1 = Axk
yk = Cxk
xk = Ak x0 y(k) = CAk x0

y0 = Cx0
y1 = CAx0
..
. =
yn1 = CAn1 x0

y0
y1
..
.

C
CA
..
.

x0

CAn1

yn1

O=

C
CA
...
CAn1

se requiere que O sea una matriz de rango completo.

11.6.2

Observabilidad
P

Definici
on Un sistema
se dice observable en el instante t0 , si y solo si para
todo estado x(t0 )X, existe un tiempo t > t0 tal que el conocimiento de u(t0 , t),
de y(t0 , t) y de (A, C) basta para determinar x(t0 ).

Controlabilidad y observabilidad de sistemas dinamicos

11.6.3

221

Reconstructibilidad
P

Definici
on Un sistema se dice reconstructible en t0 , si y solo si x(t0 ) X, t <
t0 tal que el conocimiento de u[t, t0 ], de y[t, t0 ] y de (A, C) basta para determinar
x(t0 ).
De las anteriores definiciones se desprenden los siguientes problemas:
Problema de observacion: El estado actual x(t) debe determinarse a partir de
las entradas y salidas futuras u( ), y( ) : t.
Problema de la reconstrucci
on El estado actual x(t) debe determinarse a partir
de las entradas y salidas pasadas u( ), y( ) : : t.
Por la propia definicion de invariancia en el tiempo es claro que para sistemas
invariantes en el tiempo ambos problemas son equivalentes, es decir,
Observabilidad reconstructibilidad
En lo que sigue se considerara u
nicamente el problema de la observacion.

11.6.4

Criterio de observabilidad

Para los sistemas lineales invariantes en el tiempo existe un criterio algebraico


que permite discernir si el sistema sera observable o no. Ese criterio esta basado
en la determinacion del rango de una matriz que depende exclusivamente del par
(A, C). El criterio se establece por medio del siguiente teorema.
Teorema
Un sistema

es observable si y solo si

rango O = n

en donde O = C T AT C T ... (An1 )T C T

y n = dim x.

La matriz O recibe el nombre de matriz de observabilidad


Demostraci
on
1. Necesidad

Controlabilidad y observabilidad de sistemas dinamicos

222

Se trata de demostrar que si el sistema es observable, entonces el rango O =


n. Ello es equivalente, por contradiccion, a decir que si el rango O < n
entonces el sistema es no observable.
En efecto supongase rango O < n y u(t) = 0
Para todo t [t0 , t1 ], se sabe que

y(t) = CeAt x(t0 )


=

n1
X

i (t)CAi x(0)

(11.10)

i=0

Es sabido que el rango de una matriz es el mismo que el de su transpuesta.


Es decir, que si el rangoO = n1 < n, entonces el rango OT = n1 . El hecho
de que rango OT = n1 < n implica que las columnas de OT no generan el
espacio de n dimensiones, es decir no generan X = Rn .
El hecho de que las columnas de OT no generen Rn implica que existe un
vector Rn , 6= 0, tal que es ortogonal a las columnas de OT , es decir,

(AK )T C T

O T = C AK = 0

De (8) se tiene que para todo estado inicial x(t0 ) = KKR, la salida sera
y(t) = 0
lo que significa que existen estados iniciales x(t0 ) 6= 0 (todos los que de la
forma K) los cuales no pueden determinarse (distinguirse por observacion
de la se
nal de salida y(t) ante una entrada nula u[t0 , t1 ] = 0. Ello esta en
P
contradiccion con la hipotesis de que
sea observable.
2. Suficiencia
Se trata de demostrar que si el rango O = n entonces el sistema es observable, o lo que es lo mismo, por contradiccion, que el hecho de que el sistema
sea no observable, implica que el rango O < n.
P

Supongase que
no es observable. Entonces deben existir al menos dos
estados x1 y x2 tales que x1 6= x2 y x1 indistinguible de x2 . Es decir
CeAT x1 CeAT x2
Sea x0 = x1 x2 ; entonces la respuesta de

para u = 0 a partir de x0 sera

Controlabilidad y observabilidad de sistemas dinamicos

y(t) = CeAT x0 0

223

(11.11)

es decir que el estado x0 es indistinguible del estado de reposo.


Derivando (11.11) n 1 veces se tiene
CeAt x0 = 0
CAeAt x0 = 0
An1 eAt x0 = 0

Cx0 = 0
CAx0 = 0
..
.
CAn1 x0 = 0
es decir

C
CA
..
.

x0 = 0

CAn1
Ox0 = 0
lo que implica rango O < n, ya que x0 6= 0. Por lo tanto que el sistema
sea no observable implica que rango O < n.

11.7

Sistemas continuos

Sea el cilindro con inercia unitaria, y sin rozamiento que hemos visto en los
ejemplos de introduccion.

Controlabilidad y observabilidad de sistemas dinamicos

224

1. Supongamos, en primer lugar, que la salida del sistema es la posici


on angular
del cilindro. En tal caso, la descripcion interna del sistema viene dada por
"

x =

0 1
0 0

"

x+

0
1

es decir:
"

A=

0 1
0 0

"

B=

0
1

y = [1 0]x
Si se deja evolucionar libremente, a partir de unas condiciones iniciales
x1 (0), x2 (0) el cilindro girar a velocidad constante. Si se registra la salida
en el perodo (0, T ) se obtendra una recta inclinada como la de la figura
11.10. De este registro se puede obtener facilmente:
y
x1 (0)

x2 (0)

Figura 11.10: Trayectoria del sistema


(a) La velocidad inicial, que es la pendiente de la recta.
(b) La posicion inicial, que es la coordenada en el origen.
Por tanto a partir del registro de la salida y(t) es posible reconstruir el
estado inicial del sistema. El sistema es por tanto observable.
2. Supongamos ahora que la salida, en lugar de ser la posicion, es la velocidad
de salida del sistema. En tal caso la ecuacion de transicion entre estados
sera la misma :
"

x =

0 1
0 0

"

x+

0
1

Controlabilidad y observabilidad de sistemas dinamicos

225

pero la funcion de salida se convertira, en este caso, en: y = [0 1]x


Si se registra ahora la salida se obtendra una recta horizontal, ya que en virtud del principio de inercia la velocidad de rotacion del cilindro permanece
constante. Se tendra, entonces, la evolucion de la salida que se indica en la
figura 11.11. De esta figura se obtiene inmediatamente la velocidad inicial
del cilindro, que es la ordenada de la recta. Pero no se puede obtener su
posicion. Del sistema, en este caso, no es observable.
y
x2 (0)

Figura 11.11: Evolucion de la velocidad del sistema

11.8

P
erdida de observabilidad por muestreo

Sea el sistema [oscilador lineal no amortiguado].


y + a2 y = a2 u
"

A=

0 1
a2 0

"

b=

0
a2

y = x1
y = x2
Este sistema es claramente observable

c=

1 0

Controlabilidad y observabilidad de sistemas dinamicos


"

O=

1 0
0 1

226

Supongamos que se muestrea


"

sI A =

(s) = (sI A)1

s 1
a2 s

1
= 2
s + a2

s
s2 + a2
=

a2
2
s + a2

"

1
+
s a2
s
2
s + a2

s 1
a2 s

luego

1
cos (aT )
sin(aT )
(t) =
a
a sin(aT ) cos (aT )
se tendra

O=

1
cos (aT )

1
sin(aT )
a

El sistema sera no observable si

sin(aT ) = 0 T =

k
a

(k entero)
Por tanto, para determinados valores del perodo del muestreo T el sistema
pierde su observabilidad.

Controlabilidad y observabilidad de sistemas dinamicos

11.8.1

227

Notas sobre observabilidad

Se pueden hacer consideraciones semejantes a las desarrolladas en la seccion respecto a la controlabilidad.


En particular, y relativo a un cambio de base en X, se tiene que si x = T x,
se tendra que
OT = O
El resto de las notas se extienden mutatis mutandis a la observabilidad.

11.9

Descomposici
on del espacio de estados en
sus partes observables y no-observables

De manera completamente similar a como se hizo en la seccion 4 se puede descomponer el espacio de estados en sus partes observable y no-observable. Al
igual que se hizo all supongase = (A, b, c).
Si
rango O = n1 < n
entonces existe una transformacion no singular T tal que

O1 T

T T OT = . . .

en donde O1 T : n1 np. La determinacion de O1 se hace a partir de OT I


obteniendo una matriz equivalente

Controlabilidad y observabilidad de sistemas dinamicos

O1

Si se hace x = T

.
O T ..
1

..
..
T
. I
. T
.
0 ..

228

x es facil ver que

A11 0
A21 A22

A=

B=

C=

B1
B2

C1 0

La demostracion es, en todo, excepto el detalle antes indicado, similar a la


vista en la seccion de controlabilidad. Se invita al lector a desarrollarla el mismo.
En las bases que resultan de la anterior transformacion, el sistema puede
escribirse como sigue:
x = A11 x1 + B 1 u

x 2 = A21 x1 + A22 x2 + B 2 u

y = C 1 x1
Esta forma de escribir el sistema puede representarse como se hace en el diagrama de bloques de la figura 11.12, en donde es aparente que solo el subespacio
x1 es observable, es decir, solo este subespacio influye sobre la salida. Ademas,
es evidente que la funcion de transferencia del sistema considerado depende exclusivamente de la terna (A11 , B1 , C1 ), es decir, que un sistema con esta u
ltima
terna tiene la misma funcion de transferencia que el sistema original.

Controlabilidad y observabilidad de sistemas dinamicos

1 u
x
1 = A11 x
1 + B

C1

229

x2 = A21 x1 + A22 x2 + B2 u

Figura 11.12: Diagrama de bloques de un sistema no observable

11.10

Descomposici
on can
onica del espacio de
estados

Por aplicacion sucesiva de las transformaciones indicadas en las secciones de descomposicion en partes obs. y control. o no, se pueden extraer las partes controlable y observable de un sistema dinamico lineal.
El resultado se puede enunciar como sigue:
Sea = (A, B, C). Si rango OC = n1 < n entonces existe = (A, B, C) tal
que:
1.
2.

A11 0 A13

A = A21 A22 A23


0
0 A33

B1

B=
B2
0
C=

C1 0 C3

Se dice que (A11 , B 1 , C 1 ) es el subsistema controlable y observable de .

Controlabilidad y observabilidad de sistemas dinamicos

230

La funcion de transferencia del sistema (A, B, C, ) es la misma que la del


sistema (A11 , B1 , C1 ). Es decir, que solo las partes controlables y observables
de un sistema influyen en su funcion de transferencia, o sea, en su descripcion
externa. Este resultado sera tratado con detenimiento en el captulo del problema
de la realizacion mnima, que es aquella que dando lugar a la misma funcion de
transferencia, o descripcion externa, tiene una dimension del vector de estados X
mnima.
Ejemplo:
Se trata de extraer la parte controlable y observable del sistema cuyo terna
(A, B, C) es el siguiente:

1 0 0
1

A= 1 1 2 B= 1 C= 1 1 1
1 0 1
1
La matriz de controlabilidad es

1 1 1

C= 1 0 1

1 0 1
cuyo rango es 2. Por lo tanto la dimension del subespacio controlable es 2.

1 1
1 1 0 0

1
0
1 0 1 0
(C I) =

1 0 1 0 0 1
1
1 1
1 0 0


0 1 0 1 1 0
0
1 0
1 0 1
1
1 1
1 0 0


0 1 0 1 1 0
0
0 0
0 1 1
luego

Controlabilidad y observabilidad de sistemas dinamicos

1 0 0

T =
1 1 0
0 1 1
y

T 1

1
0 0

1 0
= 1

1 1 1

Por lo tanto

A = T AT 1

1
0 0

= 1 1 2
0
0 1

B = TB = 0

0
C = CT 1 =

1 0 1

Luego la parte controlable de (A, B, C) es

Ac =

1
0
1 1

Bc =

Cc =

1
0

1 0

La matriz de observabilidad de (Ac , Bc , Cc ) es

Oc =

1 0
1 0

231

Controlabilidad y observabilidad de sistemas dinamicos

232

cuyo rango es 1.
Una atenta observacion de (Ac , Bc , Cc ) pone de manifiesto que, casualmente,
no es necesario aplicar el algoritmo de descomposicion puesto que ya es aparente.
En efecto el subsistema observable de (Ac , Bc , Cc ) es

Am = 1
bm = 1
cm = 1
La parte observable y controlable de un sistema recibe el nombre de realizacion
mnima del mismo.
En general la terna (Ac , Bc , Cc ) necesitara ser sometida al algoritmo de descomposicion para la extraccion de su parte observable.
Se va a comprobar que la funcion de transferencia de (Am , Bm , Cm ) es la
misma que la de (A, B, C). En primer lugar se calcula (sI A)1 . para ello se
aplica el algoritmo de Leverrier (Wiherg, pag. 102).

1 0 0

A= 1 1 2

1 0 1
F1 = I
a1 =
r AF1 /1 = 1

0 0 0

F2 = AF1 + a1 I = 1 0 2
a2 = rAF2 /2 = 1
1 0 2

1 0
0

F3 = AF2 + a2 I = 1 1 2
rAF3 /3 = 1
a3 =
1
0
1
luego

Controlabilidad y observabilidad de sistemas dinamicos

(sI A)1

233

s2 1
0
0
1
2s 2
=
s 1 s2 1

(s)
2
s + 1
0
s 2s + 1

siendo (s) = s3 s2 s + 1.
Es facil ver que

T (s) = c(sI A)1 b =

(s2 1)
s2 1
1
=
=
3
2
2
s s s+1
(s 1)(s 1)
s1

que es la misma funcion de transferencia que se obtiene de la terna (Am , Bm , Cm ).

11.11

Formas can
onicas

Las expresiones estudiadas permiten transformar la terna (A, B, C) en otra forma


de representacion, de manera que se siga representando el mismo sistema dinamico.
Desde un punto de vista del espacio de estados ello es equivalente a que el vector
de estados se puede representar en distintas bases. Debe resaltarse, sin embargo,
que el vector de estados es un objeto abstracto, sin ninguna referencia, en principio, con magnitudes fsicas medibles. Es decir, no existe una base natural para
representar a X.
Ello hace que seg
un la naturaleza del problema a tratar se adopten unas
bases para el vector de estado que hagan que la forma que toma en ellas la terna
(A, B, C) sea lo mas comoda posible para la resolucion del problema en cuestion.
En ello reside una de las grandes ventajas del uso de la descripcion interna, ya
que esta permite escoger la forma de representacion de la terna (A, B, C) mas
comoda en cada caso.
Aunque se pueden concebir m
ultiples formas para la terna (A, B, C) existen
dos especialmente interesantes para las aplicaciones practicas a problemas de control. Son estas: La forma canonica de control y la forma canonica de observacion.
Cada una de ellas esta relacionada con los problemas de control y de observacion
seg
un se vera en lo que sigue.
En otro apartado se introdujeron las formas canonicas de control y observacion, al obtener la representacion por variables de estado, de una forma in-

Controlabilidad y observabilidad de sistemas dinamicos

234

tuitiva. Aqu se introduciran estas formas canonicas bajo una optica algebraica
que permita tanto su generalizacion comoda a sistemas multivariables como su
aplicacion practica.

Formas can
onicas de control

d(s)y = n(s)u
Sea la nueva variable v tal que
d(s)v = u
luego
d(s)y = n(s)d(s)v
es decir
y = n(s)v
Sea
x1 = v
x2 = x 1
..
..
.
.
xn = x n1

= v
..
.
= v (n1)

d(s)v = u x n = an x1 an1 x2 + u

y = n(s)v y = b1 v (n1) + b2 v (n2) + + bn1 v + bvn = bn x1 + bn1 x2 + b1 xn


En resumen

Controlabilidad y observabilidad de sistemas dinamicos

x 1
x 2
x 3
..
.

x n1

an

1
0
0
1
0
0
an 1 an1

... 0
... 0
... 1
... a1

x n

235

x1
x2
...
...
...
xn

0
0
...
...
...
1

Sistemas monovariables
Sea el sistema = (A, B, C), cuya matriz de controlabilidad es

C = B AB ... An1 B

Si se cambia de base al vector x de manera que x = Tc x se tendra (apartado


4.2).
Tc = CC 1
Todo sistema monovariable controlable se puede representar en unas bases x
tales que

0
0
0
..
.

A=

1
0
0
..
.

0
1
0
..
.

...
...
...

0
0
1
..
.

an an1 an2 ... a1


T

B =

C=

0 0 0 ... 1

bn bn1 bn2 ... b1

siendo la funcion de transferencia del sistema

Controlabilidad y observabilidad de sistemas dinamicos

236

b1 sn1 + b2 sn2 + + bn
G(s) = n
s + a1 sn1 + a2 sn2 + + an
Al par (A, b) corresponde una matriz de controlabilidad C cuya forma es:

0
0
..
.

C=

0
0
..
.

0
0
..
.

..
.

0
1
..
.

1
1
..
.

n2

(11.12)

0 1
1 1 n3
1 1 2 n2 n1

En donde los elementos , se generan de acuerdo con la recurrencia

i =

an an1

0
0
..
.

o
... a1

.
..

i2

i1
siendo o = 1. Es decir C puede construirse a partir del conocimiento de los
coeficientes del denominador de G(s) o del polinomio caracterstico de A.
Es facil ver tambien que

basta comprobar que CC

an1 an2
an2 an3
...
a1
1
1
0

... a1 1

... 1 0

...
...

0
0

(11.13)

= I.

De todo lo anterior se concluye que a partir de la terna (A, B, C), en forma


arbitraria, es posible determinar una transformacion Tc que transforme dicha

Controlabilidad y observabilidad de sistemas dinamicos

237

terna en la forma canonica de control. Para determinar Tc se procede como


sigue:
1. Se determina C a partir de (A, B) y se invierte. Se tiene C 1 .
2. Se determina C a partir del polinomio caracterstico de A (recordar (10)).
3. Se hace Tc = CC 1 .
Una forma alternativa de proceder es la siguiente:
1. Se determina C a partir de (A, B).
2. Se determina C

a partir del polinomio caracterstico de A (recordar (11)).

3. Se hace Tc1 = CC

Como siempre se requiere Tc y Tc1 el segundo procedimiento evita una inversion de matrices.
Ejemplo
Sea el sistema dinamico cuya terna (A, B, C) es la siguiente:

1 1 0
1

A = 0 1 1 B = 1
2 3 1
1
C=

0 1 2

Se trata de determinar su forma canonica de control.


La matriz de controlabilidad es

1 2 4

C = 1 2 2
1 4 14

Controlabilidad y observabilidad de sistemas dinamicos

238

y el polinomio caracterstico de A es
(A) = s3 3s2 + 6s 2
Luego (expresion (2))

6 3 1

= 3 1 0
1
0 0

Tc1 = CC

4 1 1

= 2 1 1

4 7 1

0, 1667 0, 1667
0

0
0, 1667
Tc = 0, 1667

0, 5
0, 6667 0, 1667
La forma canonica de control es x = T x

A = Tc ATc1

0 1 0

= 0 0 1
2 6 3

B = Tc B = 0
1
C = CTC1 =

10 13 1

Observese que para determinar A y B basta con conocer el polinomio caracterstico de A; por lo tanto no se necesita emplear las expresiones anteriores,
ni se requiere el conocimiento de Tc , ni de Tc1 . Para lo que si es indispensable
la determinacion de Tc1 es para calcular C. Pero, observese, que solo para este
u
ltimo caso se necesita conocer Tc1 , de modo que puede evitarse el determinar
Tc , evitando as el tener que invertir la matriz Tc1 . Es decir, la determinacion de
la terna (A, B, C) a partir de la (A, B, C), puede hacerse sin tener que recurrir

Controlabilidad y observabilidad de sistemas dinamicos

239

a ninguna inversion inicial, ya que la determinacion de Tc1 , de acuerdo con el


segundo de los metodos antes propuestos, puede hacerse sin necesidad de invertir
ninguna matriz. Este hecho es de gran importancia en las aplicaciones practicas
por evitar una operacion que tantas dificultades comporta.
A partir de la terna (A, B, C) es inmediato escribir la funcion de transferencia
del sistema que en este caso resulta ser

G(s) =

s2 + 13s 10
s3 3s2 + 6s 2

Por lo tanto, la determinacion de la terna (A, B, C) suministra un metodo indirecto para determinar la funcion de transferencia asociada a una terna (A, B, C).

11.11.1

Forma can
onica de observaci
on

Sistemas monovariables
En forma completamente similar a como se hizo en la forma canonica de control
se puede determinar la transformacion T0 tal que x = T0 x.

A=

B =

0
1
0
..
.

0 ... 0 an
0 ... 0 an1
1 ... 0 an2
.. .. ..
..
. . .
.
0 0 ... 1 a1

bn bn1 bn2 ... b1

C=

0 0 ... 1

Seg
un se vio la terna (A, B, C) recibe el nombre de forma canonica de observacion.
Si x = T0 x se tendra

T0 = O O

Controlabilidad y observabilidad de sistemas dinamicos

240

Procedimiento en forma similar a como se hizo en la forma canonica de control,


se puede ver que

an1 an2
an2 an3
...a1
1
1
0

... a1
... 1
... 0
... 0

1
0
0
0

Se puede concebir un procedimiento para obtener la forma canonica de observacion similar al desarrollo en la forma canonica de control. Para determinar T0
se procede como sigue:
1. A partir de (A, C) se determina O.
1

2. A partir del polinomio caracterstico de A se determina O .


1

3. Se hace T0 = O O.
Ejemplo
Sea el sistema considerado en el ejemplo de la forma canonica de control. Se
trata de determinar su forma canonica de observacion.
Se tiene

6 3 1

= 3 1 0
1
0 0

0 1 2

O= 4 7 1

6 14 6
luego

Controlabilidad y observabilidad de sistemas dinamicos

241

6 1 3
1
4 5
T0 = O O =
4

0
1
2

T01

0, 2241 0, 0862 0, 1207


0, 2069 0, 3103
=
0, 1379

0, 0690 0, 1034 0, 3448

Es decir

A = T0 AT01

0 0 2

= 1 0 6

0 1 3

10

B = T0 B = 13
1
C = CT01 =

0 0 1

Tema 12
Sntesis de sistemas de control
por variables de estado
12.1

Ley de Control

Al definir el estado de un sistema dinamico, se ha visto como este resume el pasado


dinamico del sistema, y es cuanto se necesita para predecir la futura evolucion
del mismo. Es decir, conocido el estado de un sistema en un instante determinado, esta completamente determinada la evolucion del sistema a partir de dicho
instante. Con otras palabras, conocido el estado en un instante determinado, los
valores que toma la se
nal de salida a partir de dicho instante, dependen exclusivamente de la se
nal de entrada que se aplique a partir del instante en el que se
ha definido el estado.
Al dise
nar un sistema de control lo que se pretende es conseguir para el sistema una evolucion preestablecida. Se trata de determinar las se
nales de entrada que hay que aplicar al sistema para que la evolucion del mismo sea la
requerida. Puesto que el estado es cuanto se necesita conocer para predecir la
futura evolucion de un sistema, es claro que cuanto se necesitara saber para poder
adoptar una decision respecto a que se
nales aplicar al sistema sera, precisamente,
el estado.
Es decir, una ley de control (poltica de mando) es una relacion que liga la
se
nal de mando que se aplica al sistema y el estado en que este se encuentra,
supuesto definida previamente una meta de la accion.

242

Sntesis de sistemas de control por variables de estado

243

El principio en virtud del cual los valores de la se


nal de entrada deben calcularse a partir del estado, fue enunciado por Richard Bellman a mediados de
la decada de los cincuenta, y puede considerarse como la idea fundamental de la
teora moderna de control. El punto principal reside en que el estado incorpora
toda la informacion necesaria para determinar las acciones de control que deben
ser tomadas, puesto que la evolucion futura del sistema esta completamente determinada por el estado presente y los valores futuros de la se
nal de entrada.
Cuando la meta es la reproduccion a la salida de una se
nal de referencia r se
podra escribir la ley de control en la forma
u = f (x, r)
que se puede interpretar graficamente en la figura 12.1.

x
B

x
C

a) Sistema en bucle
abierto
A

x
B

x
C

A
REGULADOR

b)Sistema en bucle
cerrado

Figura 12.1: Sistema de control por variables de estado


Debe notarse, que en el esquema de la figura 12.1-b se supone que los compo-

Sntesis de sistemas de control por variables de estado

244

nentes del vector de estado se pueden identificar con magnitudes fsicas medibles
y que son estas magnitudes las que definen las se
nales que se realimentan. El
caso en que la anterior identificacion no sea posible se discutira mas adelante.
En lo que sigue se consideraran leyes de control lineales de la forma
u = k (r (k1 x1 + k2 x2 + + kn xu )) = k (r K x)

(12.1)

siendo
K = (k1 k2 ... ku )
La representacion grafica de una ley de control lineal para sistemas monovariables se tiene en la figura 12.2.

x
B

PLANTA

REGULADOR

Figura 12.2: Control lineal


La introduccion de una ley de control lineal da lugar, en bucle cerrado, al
siguiente sistema:
en bucle abierto se tiene:
x = Ax + Bu

Sntesis de sistemas de control por variables de estado

245

si se hace
u = k (r Kx)
se tendra :
en bucle cerrado

x = Ax + kB (r Kx)
= (A kBK)x + Bkr
y = Cx

(12.2)
(12.3)

cuya funcion de transferencia es


Y (s)
= C(sI A + kBK)1 Bk
R(s)

(12.4)

Para aclarar el efecto de la ley de control lineal se puede recurrir a dos interpretaciones. Estas interpretaciones se hacen, sin perdida de generalidad, para
n = 2.

12.1.1

Interpretaci
on por diagramas

Sea el sistema dinamico descrito por la ecuacion diferencial


y + a1 y + a2 y = u

(12.5)

cuya funcion de transferencia es


1
Y (s)
= 2
U (s)
s + a1 s + a2

(12.6)

y cuyo diagrama se tiene en la figura 12.3 a).


u = k (r k1 x1 k2 x2 )

(12.7)

Sntesis de sistemas de control por variables de estado

246

se tendra el sistema cuyo diagrama se tiene en la figura 12.3 b), que a su vez
puede simplificarse al de la figura 12.3 c).
De la figura 12.3 c) se desprende facilmente que la funcion de transferencia en
bucle cerrado sera
Y (s)
k
= 2
R(s)
s + (a1 + kk2 )s + (a2 + kk1 )

12.1.2

(12.8)

Interpretaci
on algebraica

El sistema dinamico
y + a1 y + a2 y = u

(12.9)

admite una representacion por variables de estado cuya forma canonica de


control es

A=

0
1
a2 a1

B=

C=

0
1

1 0

Si se le aplica una ley de control de la forma


u = kr k (k1 k2 ) x
Se tendra

x =

0
1
a2 a1

0
1

kk1 kk2

x+kr

Sntesis de sistemas de control por variables de estado

x2

1
s

x1

1
s

247

a1
a)
a2
K k1

K k2

x2

1
s

x1

1
s

a1

b)

a2

x2

1
s

1
s

x1

(a1 + Kk2 )
c)
(a2 + Kk1 )

Figura 12.3: Control por variables de estado de un sistema de segundo orden

Sntesis de sistemas de control por variables de estado

x =

0
1
a2 kk1 a1 kk2
y=

1 0

x+

248

0
k

Cuya funcion de transferencia es


Y (s)
k
= 2
R(s)
s + (a1 + kk2 ) s + (a2 + kk1 )
que coincide con la expresion (9) obtenida mas arriba.
Como resumen de lo anterior cabe decir que por una conveniente eleccion de
la ley de control puede alterarse arbitrariamente el denominador de la funcion
de transferencia en bucle cerrado del sistema, dejando inalterado el numerador
excepto en la constante k.
Normalmente, en lo que se sigue, se hara k = 1.

12.1.3

Determinaci
on de la ley de control

Sistemas monovariables
Se supondra k = 1. En caso contrario los coeficientes de la ley de control vendran
afectados por la constante k. Es decir la ley de control que se adopta es de la
forma
u = r Kx
siendo
K = (k1 k2 ... kn )
Supongase que A (en bucle abierto) tiene un polinomio caracterstico.

Sntesis de sistemas de control por variables de estado

249

(A) = sn + a1 sn1 + + an

(12.10)

Y supongase que se quiere tener en bucle cerrado una matriz A tal que
(A ) = sn + 1 sn1 + + n

(12.11)

Este polinomio sera, precisamente, el denominador de la funcion de transferencia en bucle cerrado.


Si el sistema se escribe en la forma canonica de control la ley de control tendra
unos coeficientes
K = (n an n1 an1 ... 1 a1 )

(12.12)

En efecto, es inmediato comprobar que escribiendo (A, B) en la forma canonica


de control se tiene

A = A BK =

0
0
..
.

1
0
..
.

0
1
..
.

...
...

0
0
..
.

0
0
0
...
n n1 n2
1

Para un par (A, B) arbitrario se puede establecer el siguiente procedimiento


sistematico para la determinacion de la ley de control. Se parte de (A, B) y de
(A ):
1. se determina (A) a partir de A.
2. Se determina C a partir de los coeficientes ai de (A).
3. Determinar C a partir de (A, B). y se invierte para tener C 1 .
4. Determinar K a partir de (A) y de (A ) de acuerdo con (12.12).

5. Determinar K = K CC 1 .

Sntesis de sistemas de control por variables de estado

250

La justificacion del anterior procedimiento es muy simple y se deja como


ejercicio al lector. En esencia consiste en determinar la ley de control en las bases
correspondientes a la forma canonica de control K , de acuerdo con la expresion
(12.12), y posteriormente transformar esta ley a las bases del par original K.
Ejemplo
Sea el sistema dinamico lineal cuyo par (A, B) es el siguiente:

1
0
2
1

0 B= 2
A = 0 1

1
0 1
1
Se pide la ley de control para que el sistema realimentado tenga un polinomio
caracterstico.
(A ) = (s2 + s + 1) (s + 10)
Procediendo como se indica mas arriba se tiene
1. Se calcula el polinomio caracterstico de A.

(A) = (s2 3) (s + 1)
= s3 + s2 3s 3
Observese que el sistema es inestable.
2. Se determina C .

1 =

3 3 1

2 =
luego

3 3 1

0 = 1
1

1 =4
1

Sntesis de sistemas de control por variables de estado

251

0
0
1
1 1
C=
0

1 1
4
3. Se determina C que resulta ser:

1
3 3
2
2
2
C=

1
0 3
cuya inversa es

C 1

0, 5
0, 75
1

0 0, 333
= 0, 333

1, 667 0, 25 0.6667

4. A partir de (A) y de (A ) se obtiene k

K = (10 (3) 11 (3) 11 1)


= (13 14 10)
5. Se obtiene

K = K CC 1 = (0, 1680 2, 25 14.6681)


Se invita al lector a que compruebe que
(A BK) = s3 + 11s2 + 11s + 10

12.2

Observadores

Seg
un se ha visto en la seccion 1 de la ley de control es funcion de las variables de
estado del sistema. En consecuencia, para realizar fsicamente una ley de control
es necesario disponer de unas se
nales que reproduzcan a las componentes del vector de estado. Sin embargo al introducir la nocion de estado se ha visto que este
es un concepto abstracto sin, en principio, ninguna realidad fsica subyacente.

Sntesis de sistemas de control por variables de estado

252

Es decir, que si bien en determinados casos sera posible identificar a los componentes del vector de estados con magnitudes fsicas medibles, este no sera el caso
mas general. En el caso en que las variables de estado puedan identificarse con
magnitudes fsicas medibles se dira que el vector de estado es accesible.
En el caso contrario, es decir en el caso de que el vector de estado no sea accesible, para poder aplicar una ley de control hay que recurrir a un camino indirecto
para obtener el estado. Consiste en dise
nar un sistema dinamico, denominado
observador, tal que alimentado por las se
nales accesibles (de entrada y/o salida)
suministre a su salida unas se
nales, que se denotan por x, que reproduzcan la
evolucion del estado del sistema original.
En otra seccion , se ha definido el problema de la observacion, como un problema de reconstruccion del estado a partir de las se
nales de entrada y de salida.
En consecuencia, el observador, como sistema dinamico, no es sino una solucion
mecanizada del problema de la observacion. En consecuencia, el problema no
tendra solucion mas que cuando el sistema sea observable; es decir, sera posible
sintetizar un observador solamente para un sistema observable.
Planteado as, el problema de la sntesis de un observador, tiene una gran
generalidad. En lo que sigue se concretaran las soluciones de mayor interes.

12.2.1

Sistemas monovariables

Observador en bucle abierto


Es la solucion mas simple al problema de la observacion del estado. Consiste,
sencillamente, en una realizacion fsica (analogica) de la ecuacion diferencial.
x = Ax + Bu

(12.13)

la cual permite tener en determinados puntos las se


nales que reproducen al
estado.
Su diagrama se tiene en la figura 12.4.
Los inconvenientes que presenta este observador son los siguientes:
1. Para que funcione correctamente se requiere el conocimiento del estado

Sntesis de sistemas de control por variables de estado

253

A
SISTEMA ORIGINAL
R

A
OBSERVADOR

Figura 12.4: Observador en bucle abierto

Sntesis de sistemas de control por variables de estado

254

inicial.
2. Es muy sensible a los errores en la estimacion de los parametros que intervienen en A y B. En particular si alg
un auto valor de A es positivo, el mas
mnimo error (siempre existente en la practica) en la evaluacion del mismo,
o en la sntesis del observador, produce la inestabilidad del conjunto.

Observador asint
otico
Con el observador asintotico se pretende tener la garanta de que, aunque se
produzcan problemas del tipo de los aludidos al final de la seccion anterior siempre
cumplira la condicion siguiente
lim (
x x) = 0

(12.14)

es decir que la se
nal de salida del observador x converge al estado real del
sistema x, al menos para t .
El que se cumpla la propiedad de la expresion 12.14 se consigue muy facilmente
con una ligera modificacion del observador en bucle abierto (figura 12.4) para
convertirlo en un observador en bucle cerrado. La modificacion parte de una idea
muy simple que consiste en comparar la se
nal de salida y(t) del sistema real con
la se
nal de salida y que se obtiene a partir de la se
nal x de salida, del observador
de acuerdo con la expresion:
y = C x
El error entre y e y se emplea para corregir el funcionamiento del conjunto.
Una solucion que explota la anterior idea es la de la figura 12.5. Este observador recibe el nombre de observador de Luenberger.
Observese en la figura 12.5 que:
x = A
x + L(y C x) + Bu
es decir

(12.15)

Sntesis de sistemas de control por variables de estado

SISTEMA
ORIGINAL

255

A
+

`
-

C
R

A
OBSERVADOR

Figura 12.5: Observador asintotico

Sntesis de sistemas de control por variables de estado

256

x = (A LC)
x + Ly + Bu

(12.16)

x = x x

(12.17)

x = (A LC) x

(12.18)

Si se define

Restando (16) de (14) se tiene

Si los autovalores de (A LC) son negativos se tendra que


lim x = 0

es decir x converge a x.
El problema de la sntesis de un observador se reduce a una conveniente
eleccion de L para que (A LC) tenga unos autovalores apropiados.
Se discuten a continuacion dos posibles soluciones al problema.

Observador asint
otico del mismo orden
Seg
un se ha visto , todo sistema observable puede escribirse en la forma canonica
de observacion:

x =

0 0 ... 0 an
1 0 ... 0 an1
0 1 ... 0 an2
...
0 0 ... 1 a1
y=

bn

bn1
x+ . u

0 0 ... 1

b1

(12.19)

Sntesis de sistemas de control por variables de estado

257

Si se hace
LT = (l1 l2 ... ln )

(12.20)

Se tiene

A LC =

0
1
0
...
0

0
0
1
...
0

...
...
...
...
...

0 an l1
0 an1 l2
0 an2 l3
...
...
1 a1 ln

(12.21)

Como los elementos de la u


ltima columna de A LC determinan su ecuacion
caracterstica, esta podra elegirse arbitrariamente mediante una adecuada seleccion de L.
Observese la dualidad entre el problema de determinar la ley de control y el
de sintetizar un observador asintotico del mismo orden.

Observador asint
otico de orden mnimo
En el observador del mismo orden no se ha tenido en cuenta que en la forma
canonica de observacion y = xn , y por lo tanto la se
nal de salida (que es obviamente accesible) reproduce el elemento xn del vector de estado. En consecuencia
es posible concebir, en principio, un observador cuya salida sean las (n 1) componentes restantes de x. Este observador recibe el nombre de observador mnimo,
pues su orden es n 1.
Supongase que se tiene el par (A, B) correspondiente a un sistema del que
se quiere construir un observador. Para fijar ideas supongase n = 3. En la
ecuacion que rige el comportamiento dinamico del sistema, se pueden particionar
los bloques que se indican en la expresion siguiente:

x 1
x 2

x 3

.
a11 a12 .. a13
.
a21 a22 .. a23
.
.
a31 a32 .. a33

x1
x2

x3

b1
b2

b3

Sntesis de sistemas de control por variables de estado

258

Para dise
nar el observador de orden mnimo se adopta una expresion como
la anterior haciendo y = x3 . Llamando x1 y x2 a las observaciones del estado,
obtenidas del observador, se tiene que la ecuacion dinamica del mismo puede
escribirse como sigue:

1
x
2
x

a11 a12
a21 a22

x1
x2

a13
a23

y+

b1
b2

En donde se ha prescindido de la tercera lnea, la correspondiente a x3 , por ser


innecesaria. Se tiene en la expresion anterior un sistema dinamico que alimentado
por las se
nales de entrada u y de salida y, permite obtener las componentes del
vector de estado x1 y x2 . Se ha resuelto con ello el problema de obtener un
observador de orden mnimo, es decir, un observador cuyo orden sea n 1.
Sin embargo, el observador anterior puede adolecer del defecto de que su
comportamiento dinamico no sea satisfactorio. Puede, incluso, ser inestable. Ello
es debido a que la submatriz (n 1) (n 1) superior izquierda de A, tendra
unos autovalores arbitrarios que, para una forma cualquiera de A, escapan de
la decision del dise
nador del observador. Afortunadamente, es posible tener la
matriz A en una forma tal que el bloque superior izquierdo que interesa para la
sntesis del observador, tenga unos autovalores previamente especificados. Ello se
consigue con la transformacion T1 que se estudia a continuacion.
Sea x el vector de estado en la base correspondiente a la forma canonica de
observacion. Se aplica a x la transformacion T1 , de manera que x = T1 x, estando
T1 definido por

T1 =

1
0
..
.

0 ... 0 n1
1 ... 0 n2
..
.
..
. . ..
.
0 0 ... 1 1
0 0 ... 0
1

(12.22)

en donde el significado de los coeficientes i se vera mas abajo. Es facil ver


que

Sntesis de sistemas de control por variables de estado

1
T1 =

1
0
..
.

0 ... 0 n1
1 ... 0 n2
..
.
..
. . ..
.
0 0 ... 1 1
0 0 ... 0
1

259

(12.23)

Se tendra

A =

0
1
0
..
.

0 ... 0 n1
1
0 ... 0 n2 2
1 ... 0 n3 3
..
..
..
..
.
.
.
.
0 0 ... 1 1 n1
0 0 ... 0
1
n

B =

bn n1 b1
bn1 n2 b1
..
.
b2 1 b1
b1

(12.24)

siendo los coeficientes i funcion i y de ai .


La forma obtenida para la matriz A es tal que la submatriz (n1)(n1) que
se denotara por A11 superior izquierda tiene el siguiente polinomio caracterstico:
(A11 ) = sn1 + 1 sn2 + + n2 s + n1
Por lo tanto, eligiendo convenientemente los valores de los coeficientes i de
este polinomio, que determinan la matriz T1 , se puede tener un comportamiento
arbitrario para el observador.
La ecuacion que regira el comportamiento dinamico del observador sera la
siguiente:

Sntesis de sistemas de control por variables de estado

d
dt

x1
x2
..
.
xn1

0 0 ... 0 n1
1 0 ... 0 n2
0 1 ... 0 n3
...
0 0 ... 1 1

1
2
..
.

260

x
x2
..
.

(12.25)

xn1

y + b.u

n1
lo que permite dise
nar un observador de orden mnimo con la estructura de
la figura 12.6. En este diagrama la transformacion T es la que permite obtener
la forma canonica de observacion. Los parametros i son los coeficientes del
polinomio caracterstico del observador.

y
n
y=x

OBSERVADOR
ASINTOTICO
MINIMO

T11

T 1

Figura 12.6: Observador asintotico mnimo


Un problema importante, respecto al que en la actualidad no existe una
solucion completamente satisfactoria, es el de la eleccion de los parametros i
que aparecen en el polinomio caracterstico del observador. Este polinomio caracterstico es el responsable del comportamiento dinamico del observador, y por
lo tanto estos coeficientes deben determinarse de suerte que el seguimiento de los
valores reales del estado por la salida del observador sea adecuado al comportamiento global del sistema. Es decir, deben determinarse para que el observador
sea mas rapido en la respuesta que el propio sistema. Sin embargo, aparte
de esta idea intuitiva y clara que debe presidir la eleccion del polinomio caracterstico, no existen criterios generales para la determinacion del mismo. Los

Sntesis de sistemas de control por variables de estado

261

u
nicos criterios analticos que se han publicado para la eleccion de estos coeficientes, lo han sido dentro del marco de la teora del control optimo.
Es de resaltar, por u
ltimo, el caracter asintotico del observador mnimo. Se
invita al lector a que compruebe por s mismo directamente este punto.
Ejemplo
Sea el sistema cuya forma canonica de observacion se determino en el ejemplo
de sistemas monovariables en forma canonica de observacion.
Supongase que se quiere dise
nar un observador tal que sus autovalores sean
1 = 4 2 = 5
es decir, el polinomio caracterstico del observador sera
(obs.) = (s + 4) (s + 5) = s2 + 9s + 20
seg
un (23) y (24) se tiene

1 0 20

T1 = 0 1 9
0 0
1

T11

1 0 20

= 0 1 9

0 0 1

Se toma Ao y B o en la forma canonica de observacion, y se tiene

A = T1 Ao T11

0 20 238

= 1 9 94
0
1
12

30

B = T1 bo = 22

Sntesis de sistemas de control por variables de estado

262

Por lo tanto la ecuacion dinamica del observador resulta ser

=
x

0 20
1 9

x +

238
94

y+

30
22

Con una conversion a las bases originales a la forma

x1
02241 0, 0862 5, 1371


1 1
0, 2069
4, 9304 x2
x = To T1 x = 0, 1379

0, 0690
0, 1039
1, 9658
y

12.3

Sntesis del sistema en bucle cerrado

En la seccion 1 se ha considerado la determinacion de la ley de control para el


caso en que las variables de estado fuesen accesibles.
En la seccion 2 se han estudiado los observadores que permiten observar (evaluar) el estado cuando este no es accesible. La solucion inmediata a la sntesis de
un sistema de control cuando el sistema no es accesible es aplicar la ley de control
a las se
nales obtenidas a la salida del observador, que reproducen el estado de un
sistema, de acuerdo con el diagrama de la figura 12.7.

OBSERVADOR

LEY DE
CONTROL

Figura 12.7: Sistema de control por variables de estado con observador


Para estudiar el sistema conjunto se procede como sigue:
Sea el sistema en bucle abierto

Sntesis de sistemas de control por variables de estado

x = Ax + Bu
y = Cx

263

(12.26)
(12.27)

Y supongase que se ha determinado una ley de control


u = r Kx

(12.28)

siendo la ecuacion del observador asintotico


x = A
x + L(y C x) + Bu

(12.29)

La ley de control se aplica sobre la estimacion del estado x. Es decir, en


realidad la expresion de la ley de control toma la forma
u = r K x

(12.30)

La evolucion del sistema en bucle cerrado vendra regida por las ecuaciones
(12.26), (12.29) y (12.30).
Llevando (12.30) a (12.26) y a (12.29) se tiene

x = A x B k x + Br
x = A
x LC(
x x) + Br Bk
x

(12.31)
(12.32)

Llamando x = x x, la expresion (12.31) se puede escribir


x = (A BK)x BK x + Br

(12.33)

Por otra parte restando (12.33) de (12.32) se tiene


x = (A LC) x

(12.34)

Sntesis de sistemas de control por variables de estado

264

Las expresiones (12.33) y (12.34) se pueden escribir de una forma compacta


como sigue :
d
dt

x
x

A BK BK
0
A LC
y=

C 0

x
x

x
x

B
0

(12.35)

De un atento analisis de la expresion (35) se desprenden dos conclusiones:


1. Los autovalores del sistema en bucle cerrado son la union de los correspondientes a (A BK) y los correspondientes a (A LC). Esta propiedad
recibe el nombre de propiedad de separacion y es analoga a la que se presenta en los sistemas estocasticos al combinar un filtro de Kalman[222z
con una ley de control optima.
2. Llamando 11 (s) = (sI A + BK)1 se tendra que
Y (s)
= C11 (s)B
R(s)
Es decir que el observador no influye en la funcion de transferencia en bucle
cerrado, puesto que esta funcion de transferencia es la misma que se obtiene
sin observador, cuando las variables de estado son accesibles. Observese que
esta conclusion, pese a su caracter sofisticado, es intuitiva ya que el observador
reproduce exactamente las variables de estado si el valor inicial de estas es el
mismo del que parte el observador, y ello es lo que sucede cuando se parte del
reposo. Es decir, al partir del reposo, los valores que toman la variable de estado
son nulos; estos mismos valores son lo que inicialmente suministra el observador
si a su vez parte del reposo. Por lo tanto, inicialmente, el observador suministra
el valor real del estado.
Ejemplo
Sea el sistema formado por dos integradores que se indica en la figura 12.8,
cuya descripcion externa vendra dada por la funcion de transferencia
1
Y (s)
= 2
U (s)
s

Sntesis de sistemas de control por variables de estado

265

y cuya descripcion interna vendra dada por


x 1 = x2
x 2 = u
es decir

A =

0 1
0 0

B =

0
1

C =

x2

1
s

1 0

x1

1
s

Figura 12.8: Doble integrador


Supongase que se quiere obtener en bucle cerrado un polinomio caracterstico
dado por
(s) = s2 + a1 s + a2
Habida cuenta de la expresion (11) se tendra que
K=

a2 a1

Si las variables de estado son accesibles se tiene el diagrama de la figura 12.9. Si


x2 no es accesible, debe procederse a dise
nar un observador. Para ello se escribe
(A, B, C) en la forma canonica de observacion. Se tiene

Ao =

0 0
1 0

Bo =

1
0

Co =

0 1

La ley de control, en estas bases del vector de estado, vendra dada por
Ko =

a1 a2

Sntesis de sistemas de control por variables de estado

r +

x2

1
s

266

1
s

x1

a1

a2

Figura 12.9: Sistema controlado


Se quiere tener un observador asintotico de orden mnimo. El orden del observador sera uno, por ser el sistema de orden dos. Si se denota por s + el
polinomio caracterstico del observador, se tendra de acuerdo con las expresiones
(12.22) y (12.23).

T1 =

1
0 1

T11

1
0 1

y, por lo tanto,

A=

T1 Ao T11

2
1

B = T 1 Bo =

1
0

El observador viene dado por el diagrama de bloques de la figura 12.10.


La ley de control en la base del vector de estado correspondiente a X vendra
dada por

Sntesis de sistemas de control por variables de estado

267

x
1

1
s

x
2

Figura 12.10: Diagrama del observador

k = Ko T 1 =

a1 a1 + a2

Por lo tanto el conjunto formado por el sistema original y el compensador sera


el representado en la figura 12.11.
Supongamos ahora que se trata de un problema de regulacion con r = 0.
En tal caso es relativamente sencillo determinar el diagrama que representa la
descripcion interna del controlador, entendido como el subsistema que a partir
de la se
nal de salida de la planta a controlar y produce la se
nal control u. En la
figura 12.12 se representa el diagrama del controlador.
Si el problema de dise
no se hubiese resuelto mediante los metodos clasicos de
control, el controlador vendra especificado mediante su funcion de transferencia.
Para comparar los resultados se puede determinar la funcion de transferencia del
controlador que se acaba de obtener. Esta funcion de transferencia viene dada
por
(a1 + a2 )(s + a1 ) + a2
U (s)
= C(s) =
Y (s)
s + a1 +
a2
s + a1 +
a1 + a2
= (a1 + a2 )
s + a1 +

Sntesis de sistemas de control por variables de estado

a1

x
1

1
s

1
s2

268

a1 + a2

OBSERVADOR

Figura 12.11: Sistema de control por variables de estado con observador


que se puede escribir de forma mas compacta
C(s) = k

s + 1
s + 2

k, 1 , 2 > 0

1 < 2

(12.36)

y que resulta ser lo que en los metodos clasicos se conoce como una red de avance
de fase.
De este modo se ha conseguido resolver el problema de la sntesis de un controlador sin ninguna preconcepcion con relacion a su estructura. Si se quiere dar un
paso mas, supongamos que en bucle cerrado se pretende tener un comportamiento
caracterizado por
c (s) = s2 + 2n s + n2
en donde 2n = a1 y
n2 = a2 . Un valor razonable para el coeficiente de amortiguamiento es = 1/ 2, en cuyo caso se tiene que los distintos parametros de
la red de avance (12.36) vienen dado por

k = ( 2 + )
!

3 + 2
1 =
2 +

2 = + 2

Sntesis de sistemas de control por variables de estado

269

Conviene observar que la teora clasica del control no ha sido capaz de proporcionar formulas explcita como las anteriores, a
un para un ejemplo tan simple
como el anterior. Los metodos clasicos estan basados en aproximaciones graficas
y reglas practicas, lo que constituye una clase de matematicas aplicadas relativamente anticuadas. Sin embargo, estos comentarios no descalifican los metodos
clasicos, que como se vera mas adelante, contin
uan teniendo un gran interes, ya
que suministran ndices de robustez que poseen un gran interes practico.
r

a1

x
1

1
s

a1 + a2

OBSERVADOR

Figura 12.12: Controlador para le planta 1/s2 .


Del atento analisis de este ejemplo se desprende que la teora moderna del control, basada en el empleo de las variables de estado, permite resolver el problema
de la sntesis de un sistema realimentado sin ninguna hipotesis previa respecto a la
forma del regulador que se trata de determinar. Ello permite un planteo analtico
del problema de la sntesis de sistemas de control que representa una notable
alternativa al que proponen los metodos clasicos, basados estos en metodos cuya
justificacion se encuentra mas en una experiencia acumulada que en una vision
teorica global.
A continuacion se expone un metodo general de sntesis de un sistema de
control.

Sntesis de sistemas de control por variables de estado

12.3.1

270

M
etodo pr
actico de sntesis

Problema
Dado un sistema de control monovariable cuya funcion de transferencia en
bucle abierto sea

G(s) =

b1 sn1 + b2 sn2 + + bn
sn + a1 sn1 + + an

Se quiere tener en bucle cerrado un sistema cuya funcion de transferencia sea


tal que el numerador permanezca invariable y el denominador sea
sn + 1 sn1 + + n
Para su resolucion se procede a seis pasos:
1. A partir de la funcion de transferencia se obtiene la forma canonica de
control.

Ac =

0
0

0
0
an an1

0 ... 0
1 ... 0
...
0 ... 1
... a1

BcT =
Cc =

1
0

0 0 ... 1

bn bn1 ... b1

2. Se determina la ley de control de la forma u = Kx + r.


K =

an n an1 n1 a1 1

Observese que los valores numericos de esta ley de control corresponden a


la representacion del sistema en la forma canonica de control.

Sntesis de sistemas de control por variables de estado

271

3. Se determina la forma canonica de observacion, lo que se hace a partir de


la funcion de transferencia.

Ao =

BoT =

0 0 ... 0 an
1 0 ... 0 an1
0 1 ... 0 an2
...
0 0 ... 1 a1

Co =

bn bn1 ... b1

0 0 ... 1

Aunque la forma canonica de observacion se puede obtener directamente


de la funcion de transferencia, debido al uso que posteriormente se hara de
ella interesa obtener la transformacion T que permite pasar de las bases a
la forma canonica de control a la de observacion.

T =

an1 an2 ... a1


an2 an3 ... 1
..
..
..
.
.
.
a1
1
.... 0
1
0
.... 0

1
0
..
.

C
CA
..
.

C An2

CAn1

4. A partir de la forma canonica de observacion se procede a construir el


observador mnimo. Para ello se define la transformacion T1 tal que

T1 =

1
0
..
.

0 ... 0 n1
1 ... 0 n2
..
.
..
. .... ..
.
0 0 ... 1 1
0 0 ... 0
1

en donde
sn1 + 1 sn2 + + n1
es el polinomio deseado para el observador.
Observese que

Sntesis de sistemas de control por variables de estado

1
T
=

1
0
..
.

0 ... 0 n1
1 ... 0 n2
..
.
..
. ... ..
.
0 0 ... 1 1
0 0 ... 0

272

Se tiene que

A = T1 Ao T1 =

0
1
0
..
.

0 ... 0 n1 1
0 ... 0 n2 2
1 ... 0 n3 3
..
..
..
..
.
.
.
.
0 0 ... 1
1
n1
0 0 ... 0
1
n

B = T 1 Bo
C=

0 0 ... 1

es decir que y = xn .
El observador tiene como matriz dinamica el bloque (n 1) (n 1)
superior izquierdo de A y esta excitado por u a traves de los (n1) primeros
elementos de B y de y a traves de (1 ... n1 )
1 = A11 x1 + A12 y + B u
x
siendo A11 : (n 1) (n 1) y estando B formado por los n 1 primeros
elementos de B.
a x (correspondientes a la forma
5. Se obtiene la matriz de transformacion de x
canonica de control en que se ha determinado la ley de control

x = T 1 T11 x
6. A partir de todo lo anterior la matriz del compensador es inmediata
u = K x + r
+r
u = KT 1 T11 x

Sntesis de sistemas de control por variables de estado

273

Ejemplo
Sea el sistema cuya funcion de transferencia en bucle abierto es
s+2
s(s + 1)

G(s) =

Se quiere tener un bucle cerrado el comportamiento representado por la funcion


de transferencia

Gd (s) =

s+2
s2 + 2s + 3

La aplicacion de los seis pasos anteriores conduce a lo siguiente


1.

Ac =

0 1
0 1

BcT =

2.
K=
3.

Ao =

0 0
1 1

!
T

Bo =

3 1

0 1

Cc =

2 1

2 1

Co =

0 1

siendo

T =

1 1
1 0

2 1
0 1

1/2 1
1
1

2 2
2 1

4. Adoptando obs (s) = s + 3 se tiene que

T1 =
y por lo tanto

1 3
0 1

T11

1 3
0 1

Sntesis de sistemas de control por variables de estado

A=

T1 Ao T1 1

B = T 1 Bo =
C=

0 1

274

3 6
1
2
1
1

Estando el observador dado por


1 = 3x
1 6x
2 u
x
1 6y u
= 3x
5.

1
1
= 2 2 x
x = T 1 T11 x
1
2

6.
+r
u = KT 1 T11 x
=

3 1

Es decir
U (s) =


u 6y
1
1
2 2 s + 3 + r
1
2
y

U (s)
s+9

Y (s) + R(s)
2(s + 3) 2(s + 3)

(12.37)

lo que se puede interpretar graficamente como se hace en la figura 12.13.


Comprobaci
on
Para comprobar basta determinar la funcion de transferencia en bucle cerrado
y verificar que es la deseada. En el ejemplo anterior se comprueba que as sucede.
En efecto, la expresion (12.37) se puede escribir, llevando todos los terminos en
U (s) al primer miembro:

U (s)

(2s + 7)
(s + 9)
= Y (s)
+ R(s)
2(s + 3)
2(s + 3)

Sntesis de sistemas de control por variables de estado


Como
U (s) = Y (s)

275

s(s + 1)
s+2

se tiene

s+9
(2s + 7) s(s + 1)
Y (s)
+

2(s + 3) 2(s + 3)
(s + 2)

= R(s)

Es decir
Y
2(s + 2)(s + 3)
s+2
(s) = 3
=
R
2s + 10s2 + 18s + 18
s2 + 2s + 3
Debe notarse que el observador no aparece de ninguna forma en la funcion de
transferencia en bucle cerrado.

12.3.2

Sntesis algebraica directa (Sntesis externa directa)

En el apartado anterior se ha determinado la compensacion de un determinado


sistema por medio de un observador y una ley de control. Al aplicar al sistema
original el observador y la ley de control en el ejemplo considerado en el apartado
anterior, se ha obtenido el diagrama de la figura 12.13. Ello sugiere adoptar el
diagrama de bloques de la figura 12.14,como diagrama basico para la sntesis de
sistemas de control.
Tomando el diagrama de la figura 12.14 como punto de partida para la sntesis
de un sistema de control, se identifican en el los siguientes elementos. La funcion
de transferencia T (s) es la funcion de transferencia del sistema en bucle abierto.
El polinomio q(s) caracteriza el comportamiento dinamico del observador y por
tanto, se establece a priori, de la misma manera que se adoptaban unos valores
para el comportamiento dinamico del observador en el apartado anterior. El
problema de sntesis queda reducido a determinar los polinomios k(s) y h(s). El
objeto de este apartado es precisamente, determinar los polinomios k(s) y h(s)
directamente sin necesidad de determinar que la ley de control y el observador,
que es lo que se haca en el apartado anterior.
El problema se suele plantear en los terminos siguientes. Sea un sistema
cuya funcion de transferencia es T (s) = n(s)/d(s), y supongase que se quiere
obtener en bucle cerrado un comportamiento representado por Td (s). Adoptando

Sntesis de sistemas de control por variables de estado

v +

276

s+2
s(s+1)

s+9
2(s+3)

1
2(s+3)

Figura 12.13: Diagrama de bloques simplificado del sistema controlado por variables de estado con observador

v +

T (s)

h(s)
q(s)

k(s)
q(s)

Figura 12.14: Diagrama de bloques simplificado del sistema controlado por variables de estado con observador

Sntesis de sistemas de control por variables de estado

277

la configuracion de la figura 12.14, se trata de determinar los polinomios k(s) y


h(s) para que la funcion de transferencia resultante sea precisamente Td (s).
Para estudiar el problema se procede, en primer lugar, a particionar T (s) tal
como se hace en la figura 12.15.

1
d(s)

N (s)

Figura 12.15: Factorizacion del sistema


De la observacion de las figuras 12.14 y 12.15 se tiene lo siguiente.
d(s)Z(s) = U (s)

(12.38)

Y (s) = n(s)Z(s)

(12.39)

1
(k(s)U (s) + h(s)Y (s))
q(s)
1
= R(s)
(k(s)d(s) + h(s)n(s)) Z(s)
q(s)

U (s) = R(s)

(12.40)
(12.41)

Un conocido resultado del algebra de polinomios establece que, dados dos


polinomios primos entre s n(s) y d(s), y un polinomio arbitrario (s), existen
dos polinomios k(s) y h(s), tales que
n(s)h(s) + d(s)k(s) = (s)

(12.42)

Este resultado se estudiara con detalle, en un teorema, posteriormente. Supongase


aqu que (s) = q(s) f (s), en donde el significado de f (s) se determinara mas
abajo. Se tendra que la expresion (12.40) se convertira en

U (s) = R(s) f (s)Z(s)

(12.43)

Sntesis de sistemas de control por variables de estado

278

R(s) = U (s) + f (s)Z(s)


= (d(s) + f (s)) Z(s)

(12.44)

luego,
Y (s)
n(s)
=
R(s)
d(s) + f (s)

(12.45)

Esta expresion indica que la funcion de transferencia Td (s) debe tener el mismo
numerador que T (s) y, al mismo tiempo, indica como se puede modificar el denominador. Esta modificacion se hacer por adicion de f (s), cuyo significado es
ahora claro.
El anterior desarrollo lleva implcito un metodo de sntesis. Los pasos de este
metodo son:
1. A partir de d(s) y del denominador de Td (s) se determina f (s).
2. Por consideraciones fsicas se adopta q(s), (equivale a obs (s)).
3. Se determina (s) = q(s)f (s) y se resuelve la ecuacion polinomial (12.42),
con lo que se obtienen h(s) y k(s).
Debe notarse que el problema es trivial si (n(s)) = 0, es decir si n(s) es una
constante n0 . En efecto, en tal caso la expresion (12.42) se convierte en
(s) = k(s)d(s) + h(s) n0
Para la determinacion de k(s) y h(s) se divide (s) por d(s). El cociente de
dicha division es k(s) y el resto h(s) n0
El problema queda reducido, por lo tanto, a la resolucion de la ecuacion
polinomial (12.42).

M
etodo del sistema de ecuaciones lineales
Sea la expresion (12.42) en la que a partir de n(s), d(s) y (s) se trata de determinar h(s) y k(s).

Sntesis de sistemas de control por variables de estado

279

Los grados de los polinomios n(s), d(s) y (s), son:


grado () = q 2n 2

grado (n) = m n 1

grado (d) = n
Los grados de h(s) y k(s) seran
grado (h) = n 1grado (k) = m 1
La determinacion de h(s) y k(s) se hace considerando como incognitas sus
coeficientes y obteniendo las ecuaciones que resultan de igualar coeficientes de
terminos de igual exponente de s en la expresion (12.42). Con ello se obtiene
un sistema de ecuaciones lineales que admite solucion, y esta es u
nica, si los
polinomios n(s) y d(s) son primos entre s (no tienen factores comunes).
Considerese, sin perdida de generalidad, n = 3 y m = 2, es decir,
d(s) = s3 + d1 s2 + d2 s + d3

n(s) = n0 s2 + n1 s + n2

h(s) = h0 s2 + h1 s + h2

k(s) = k0 s + k1

(s) = 0 s4 + 1 s3 + 3 s + 4
Se tendra,

Sntesis de sistemas de control por variables de estado

280

n(s)h(s) = n0 h0 s4 + (n0 h1 + n1 h0 )s3 +


+(n0 h2 + n1 h1 + n2 h0 )s2 +
+(n1 h2 + n2 h1 )s2 + n2 h2

d(s)k(s) = k0 s4 + (k1 + d1 k0 )s3 +


+(d1 k1 + d2 k0 )s2 +
(d2 k1 + d3 k0 )s + d3 k1
Al igualar en ambos miembros de (12.42) terminos en la misma potencia de
s, se tendra, escrito en forma compacta

n2 0 0 d3 0
h2

h1

n1 n2 0 d2 d3

n0 n1 n2 d1 d2 h0 =

0 n0 n1 1 d1
k1

0 0 n0 0 1
k0

4
3
2
1
0

es decir
MC =

(12.46)

La anterior ecuacion en C admite solucion, y esta es u


nica, si M 1 existe.
Ahora bien, la matriz M tiene como determinante el resultante R(n, d), de los
dos polinomios n(s) y d(s). El resultante de dos polinomios es no nulo si estos
no tienen factores comunes. Ello es lo que sucede cuando el sistema a controlar
es controlable y observable. Por lo tanto, la anterior ecuacion tendra solucion, y
esta sera u
nica, si n(s) y d(s) no tienen factores comunes.
El inconveniente que presenta este metodo es que requiere la inversion de una
matriz cuya dimension, para problemas de un cierto orden, puede ser elevada.
Este metodo, por lo tanto, no es el adecuado cuando se trata de resolver el
problema con papel y lapiz. Sin embargo, es mas simple.

Sntesis de sistemas de control por variables de estado

281

Ejemplo
Sea el sistema considerado en el ejemplo 2 del apartado anterior y cuyas funciones
de transferencia en bucle abierto y en bucle cerrado son las siguientes.

T (s) =

Td (s) =

s2

s3

s+2
+ 2s + 3s

s+2
+ 3s2 + s + 2

Se tiene que
n(s) = s + 2

d(s) = s3 + 2s2 + 3s

(s) = q(s) f (s) = s4 s2 + 2s + 2


Se adopta
k(s) = k0 s + k1

h(s) = h0 s2 + h1 s + h2
El sistema de ecuaciones (44) resulta ser

2
1
0
0
0

0
2
1
0
0

cuya solucion conduce a

0
0
2
1
0

0
3
2
1
0

0
0
3
2
1

h2
h1
h0
k1
k0

2
2
1
0
1

Sntesis de sistemas de control por variables de estado

282

h2 = 1 h1 = 0 h0 = 14/6 k1 = 1/3 k0 = 1
lo cual coincide con lo obtenido por el metodo anterior.
Debe resaltarse que para aplicar este metodo se requiere el concurso de un
computador, cosa que con el anterior, aunque aparentemente mas complejo, no
suceda.

Tema 13
Sistemas no lineales
13.1

M
etodo del primer arm
onico

Los metodos clasicos de sistemas realimentados lineales estan basados en el empleo de la funcion de transferencia, que posee una interpretacion en el dominio
de la frecuencia de gran interes para el analisis y la concepcion de esos sistemas
realimentados. Sin embargo, el concepto de funcion de transferencia esta basado
en la propiedad de linealidad (suma de causas produce suma de efectos) que no
poseen, por su propia naturaleza los sistemas no lineales.
Sin embargo, como vamos a ver en lo que sigue, es posible aplicar una version
ampliada del metodo de la respuesta en frecuencia a sistemas no lineales mediante el metodo de la funcion descriptiva. Con este metodo, como vamos a ver,
es posible adaptar los metodos de dise
no de sistemas lineales en el dominio de
la frecuencia, empleando los diagramas de Bode y similares, al caso de los sistemas no lineales, si bien en este u
ltimo caso los resultados son exclusivamente
aproximados.

13.1.1

Ejemplo introductorio

Los sistemas no lineales pueden presentar oscilaciones de amplitud y periodo


fijos sin excitacion exterior. Esas oscilaciones se denominan ciclos lmites u oscilaciones autoexcitadas. Una de la primeras ecuaciones propuestas para estudiar
este fenomeno se debe al ingeniero electrico holandes Balthasar Van der Pol. Esta
283

Sistemas no lineales

284

ecuacion es la siguiente:
x + (x2 1)x + x = 0

(13.1)

vamos a emplear esta ecuacion como ejemplo introductorio al metodo del primer
armonico. Para ello, vamos a suponer que existe un ciclo lmite de amplitud y
frecuencia no determinadas, y vamos a ver que restricciones impone la ecuacion
anterior a esta amplitud y frecuencia.
Elemento no lineal (xx
2)

Elemento Lineal

s
0

x
-

s2 s+1

(.)2

Figura 13.1: Diagrama de bloques del oscilador de Van der Pol


Puesto que el analisis de la ecuacion de Van der Pol lo estamos haciendo
como introduccion al estudio de sistemas realimentados no lineales conviene que
representamos la ecuacion (13.1) mediante un diagrama de bloques como el de la
figura 13.1. En esta figura se tiene un sistema realimentado, con realimentacion
unitaria, en cuya cadena directa aparece un bloque no lineal y uno lineal. Como
veremos luego, esta sera la forma que tomaran los sistemas realimentados no
lineales a los que se aplica el metodo del primer armonico.
Para justificar el diagrama de la figura 13.1 basta reescribir la expresion (13.1)
de la forma
x x + x = x2 x
Se define v = x2 x,
con lo que la anterior expresion se convierte en
x x + x = v
cuya funcion de transferencia es
x

(s) = 2
v
s s + 1

Sistemas no lineales

285

Supongamos que el sistema de la figura 13.1 oscila, de modo que la se


nal x
evoluciona de la forma
x(t) = A sen t
(13.2)
en donde A es la amplitud del ciclo lmite y su frecuencia. En este caso se tiene
x(t)

= A cos t
por consiguiente, la salida del bloque no lineal de la figura 13.1 viene dada por
v = x2 x = A2 sen 2 tA cos t
A3
=
(1 cos 2t) cos t
2
A3
=
( cos t cos 3t)
4

(13.3)
(13.4)
(13.5)

El paso de (13.3) a (13.4) se basa en que


2 sen 2 t = 1 cos 2t
ya que
cos 2t = cos 2 t sen 2 t = 1 2 sen 2 t
Por otra parte, el paso de (13.4) a (13.5) es un poco maas elaborado. Para
demostrarlo se parte de
cos 3t =
=
=
=
=

cos
cos
cos
cos
cos

2t cos t sen t sen 2t


t(1 2 sen 2 t) 2 sen 2 t cos t
t(1 4 sen 2 t)
t(1 2 + 2 cos 2t)
t(2 cos 2t 1)

de donde se tiene que


1
cos t cos t cos 2t = ( cos t cos 3t)
2
En la expresion (13.5) se observa que la se
nal v contiene un armonico de tercer
orden. Sin embargo, sucede que la parte lineal se comporta como un filtro paso
bajo, de modo que se puede suponer razonablemente que este armonico de tercer
orden resulta suficientemente atenuado por el bloque lineal y que puede, en una
primera aproximacion despreciarse. Con estos supuestos, la se
nal v toma la forma
aproximada
A2 d
A3
( cos t) =
(A sen t)
(13.6)
v
4
4 dt

Sistemas no lineales

286

Aproximacion cuasi lineal


r=0 +

x
-

A2
s
4

s2 s+1

Figura 13.2: Aproximacion lineal del oscilador de Van der Pol


De este modo el bloque no lineal de la figura 13.1 puede representarse en forma
aproximada como se hace en la figura 13.2. El bloque no lineal de la figura 13.1 se
describe de forma aproximada, mediante una funcion de transferencia como la que
se indica en la figura 13.2. Conviene observar que esta funcion de transferencia
depende de la amplitud de la se
nal de entrada A, lo que no sucede en ning
un caso
con una funcion de transferencia de un sistema lineal.
En general, podemos escribir que las se
nales de salida v del bloque no lineal
de la figura 13.2 vienen dadas por
v = N (A, )(x)

(13.7)

en donde N juega el mismo papel que la funcion de transferencia en un sistema


lineal, aunque en este caso con la propiedad adicional de depender no solamente
de la frecuencia , sino tambien de la amplitud A. A la funcion N la denominaremos funcion descriptiva del elemento no lineal correspondiente y constituye una
generalizacion del concepto de funcion de transferencia al estudio de los sistemas
no lineales (aunque aqu con un caracter aproximado ya que para llegar a ella
se han despreciado los armonicos de orden superior al primero, a partir de la
consideracion del caracter del filtro paso bajo del bloque lineal).
En el caso que nos ocupa la funcion descriptiva toma la forma
A2
(13.8)
4
es decir el bloque no lineal se puede aproximar por la funcion de respuesta en
frecuencia N . De acuerdo con la cadena directa del sistema de la figura 13.2, se
puede escribir
N (A, ) = j

x = A sen t = G(j)v = G(j)N (A, )(x)

(13.9)

Sistemas no lineales

287

Se sabe que una se


nal senoidal se puede escribir en forma compleja mediante la
exponencial
x = Aejt
con lo que la anterior expresion (13.9) puede escribir
Aejt = G(j)N (A, )(Aejt )
de donde se tiene
1 + G(j)N (A, ) = 0

(13.10)

esta expresion, en realidad, es una forma de escribir la expresion (13.1), es decir


la ecuacion del sistema, habida cuenta de la simplificacion que ha permitido pasar
de la expresion (13.3) a la (13.6). La resolucion de esta ecuacion en la amplitud
A y la frecuencia permite determinar la amplitud y frecuencia a la que oscila
el sistema. En el caso concreto que nos ocupa, la expresion (13.10) se convierte
en

A2
1+
j = 0
(13.11)
(j)2 (j) + 1 4
que conduce a
4((j)2 (j) + 1) + A2 j = 0
cuya parte real es
4 2 + 4 = 0
cuya solucion conduce a = 1, y cuya parte imaginaria es
4 + A2 = 0
por lo que A = 2. Por tanto el sistema admite una solucion en forma de oscilacion
con amplitud A = 2 y frecuencia = 1.
Conviene observar que la expresion (13.11) escrita en forma de Laplace toma
la forma

A2 s
1+ 2
=0
s s + 1 4
que es la ecuacion caracterstica en bucle cerrado del sistema de la figura 13.2.
Los autovalores de esta ecuacion son
1,2

1
= (A2 4)
8

1 2 2
(A 4)2 1
64

(13.12)

en los que haciendo A = 2 se obtienen los autovalores 1,2 = j; es decir existe un


ciclo lmite de amplitud 2 y frecuencia 1. Conviene observar que ni la amplitud
ni la frecuencia obtenidas dependen del parametro .

Sistemas no lineales

288

Elemento no lineal
r(t) = 0
+

x(t)

v = f (x)

Elemento lineal
v(t)

G(s)

y(t)

Figura 13.3: Sistema no lineal

r(t) = 0
+

x(t)

G1 (s)

v(t)

u(t)

Gp (s)

y(t)

G2 (s)

Figura 13.4: Sistema de control con una no linealidad

Sistemas no lineales

13.1.2

289

Principios del m
etodo

Supuestos basicos del metodo:


1. Hay un u
nico componente no lineal.
2. Ese componente es invariante en el tiempo.
3. La parte lineal se comporta como un filtro paso-bajo.
4. La no linealidad es simetrica, de modo que no aparece en la salida un se
nal
de continua.
Debido a estas limitaciones, el metodo de la funcion descriptiva se utiliza fundamentalmente para el analisis de estabilidad y no suele aplicarse a problemas de
dise
no optimo de sistemas.

13.1.3

Transformaci
on de Fourier

La salida v(t) de un elemento no lineal, en respuesta a una se


nal sinusoidal, de
amplitud A y frecuencia , es una se
nal periodica de la misma frecuencia, que se
puede desarrollar en serie de Fourier, de la forma:

v(t) = a0 +

(an cos (nt) + bn sen (nt))

n=1

1Z
a0 =
v(t)d(t) n = 0, 1, 2, ...

El termino independiente es el valor medio de la se
nal en un perodo. Para una
se
nal sin componente de continua este valor es cero; es decir a0 = 0 (recuerdese
el supuesto 4 de 13.1.2).
1Z
an =
v(t) cos (nt)d(t)

n = 0, 1, 2, ...

(13.13)

1Z
v(t) sen (nt)d(t)

n = 0, 1, 2, ...

(13.14)

bn =
Casos de interes:

Sistemas no lineales

290

v(t) es impar [v(t) = v(t)], entonces an = 0, n = 0, 1, 2, ..., y en


desarrollo solo tiene terminos en senos (figura 13.5a).
v(t) es alternada [v(t + ) = v(t)], entonces el desarrollo solo tiene
terminos impares (figura 13.5b).

v(x)
v(x)

x+

x
x

x
v(x)

v(x + )

a)

b)

Figura 13.5: Se
nales impar (a) y alternada (b)
En el supuesto de que se considere u
nicamente la componente fundamental del
desarrollo en serie, y recordando que a0 = 0, se tiene que la expresion se convierte
en
v(t) = v1 (t) = a1 cos (t) + b1 sen (t) = M sen (t + )
(13.15)
En la figura 13.6 se representa un elemento no lineal y su representacion mediante

Asen(t)

w(t)

N.L.

Asen(t)

N (A, )

M sen(t + )

Figura 13.6: Elemento no lineal y funcion descriptiva


la funcion descriptiva. De la expresion (13.15) se tiene

M (A, ) =

a21

b21

(A, ) = tag

a1
b1

En la figura 13.6 se muestra como la componente fundamental de la salida de un


sistema no lineal a una se
nal sinusoidal de entrada, es otra se
nal sinusoidal de la
misma frecuencia pero de amplitud M y desfase . Empleando una representacion
compleja la sinusoide puede escribirse
v1 = M ej(t+) = (b1 + ja1 )ejt

Sistemas no lineales

291

Con los anteriores elementos ya estamos en posicion de definir la funcion descriptiva de un elemento no lineal como el cociente complejo entre la componente
fundamental del elemento no lineal y la se
nal sinusoidal de entrada A sen t; es
decir
M ej(t+)
M j
1
N (A, ) =
=
e = (b1 + ja1 )
(13.16)
jt
Ae
A
A
Es decir, la funcion descriptiva N (A, ) es una funcion compleja cuyo modulo
y argumento representan la amplificacion y el desfase del primer armonico de la
salida v(t) de un sistema no lineal ante una entrada sinusoidal de amplitud A y
frecuencia .
El concepto de funcion descriptiva puede, por tanto, ser considerado como
una ampliacion de la nocion de respuesta frecuencial de los sistema lineales. Las
diferencias entre ambos conceptos se limitan a que la funcion descriptiva de un
elemento no lineal depende de la amplitud, mientras que la funcion de transferencia de un elemento lineal no depende de ella. Sin embargo, con vistas a
las aplicaciones al dise
no de sistemas realimentados pueden tratarse de forma
analoga.
En general, por tanto, la funcion descriptiva depende de la frecuencia y la
amplitud de la se
nal de entrada. Existen, sin embargo, algunos casos especiales.
Cuando la no linealidad es uniforme (es decir, su caracterstica es una funcion que
asigna a cada valor de la se
nal de entrada un u
nico valor de la se
nal de salida)
la funcion descriptiva N es real e independiente de la frecuencia de entrada. El
caracter real de N se debe a que a1 = 0, debido a que la se
nal de salida del
elemento no lineal es impar, y en ese caso, como hemos recordado antes, todos
los terminos ai se anulan. Ademas, la salida es siempre alternada, por lo que
los terminos pares desaparecen. Por tanto ante una no-linealidad uniforme se
tendraa
v(t) = b1 sen t + b3 sen 3t + b5 sen 5t + ...

13.2

Algunas funciones descriptivas

La determinacion de la funcion descriptiva se puede hacer basicamente de dos


formas: por calculo analtico o por determinacion experimental.
Por lo que respecta al metodo analtico vamos a presentar un par de ejemplos
para ilustrar su aplicacion. El primero de los ejemplos es una saturacion que
aporta un ejemplo de un sistema no lineal con caracterstica estatica. Tambien
se presenta un ejemplo de un rele con holgura, cuya caracterstica es dinamica.

Sistemas no lineales

13.2.1

292

Saturaci
on

saturacion

v(t)

salida no saturada
salida saturada

k
0

ka
a

ka

A
x(t)

/2

entrada
sinusoidal

Figura 13.7: Caracterstica de una saturacion.


En la figura 13.7 se muestra la caracterstica de una saturacion. Para valores
de x < a el elementos no lineal transmite la se
nal de forma lineal, con una
amplificacion. Para valores de x > a la se
nal de entrada queda truncada por
efecto de la no linealidad.
En la figura 13.7 se muestra el efecto de la saturacion sobre una se
nal de
entrada de amplitud mayor que a, para el caso en que A sea mayor que a. En tal
caso se tiene que la se
nal de salida del elemento no lineal vendra dada por
(

v(t) =
siendo = sen

kA sen (t) 0 t
ka
t /2

(a/A)

a1 = 0 observese que el caracter impar de v(t) implica que a1 = 0 y que


la simetra de la se
nal sobre los cuatro cuadrantes en que se puede considerar

Sistemas no lineales

293

dividido un periodo indica que


b1

4 Z /2
=
v(t) sen td(t)
0
4Z
4 Z /2
=
kA sen 2 td(t) +
ka sen td(t)
0

(13.17)

a
a2
2kA
+
1 2
=

A
A
por consiguiente, la funcion descriptiva resulta ser

b1
2k
a
a2
N (A) =
=
+
1 2
A

A
A

(13.18)

En la figura 13.8 se representa la funcion descriptiva de una saturacion.


1.2

Rango lineal
1.0

N(A)/k

0.8

0.6

0.4

0.2

0.0

10

A/a

Figura 13.8: Funcion descriptiva de una saturacion.

13.2.2

Rel
e

La caracterstica no lineal de un rele se muestra en la figura 13.9. Si se compara


con la caracterstica de una saturacion, que se vio en la figura 13.7 se tiene que la
no linealidad de un rele corresponde a un caso lmite de una saturacion definido
por
a 0, k

Sistemas no lineales

294

2.0

a infinito

encendido

1.6

x
-M

N(A)/M

M
1.2
0.8
0.4

a cero

apagado
0.0

10
A

Figura 13.9: Caracterstica de un rele


siendo ka = M . Por tanto, b1 puede obtener de la expresion (13.18) calculando
el lmite. Sin embargo se obtiene mas facilmente calculandolo directamente de
acuerdo con
4 Z /2
4M
b1 =
(13.19)
M sen td(t) =
0

por lo que la funcion descriptiva de un rele viene dada por


N (A) =

4M
A

(13.20)

En la figura 13.9 se representa la funcion descriptiva de un rele. Puede compararse


esa funcion descriptiva con la de la saturacion que se vio en la figura 13.8.

13.2.3

Holgura

En la figura 13.10 se muestra la caracterstica de una holgura, que se presenta


a menudo en los sistemas de transmision mecanica mediante engranajes. Como
consecuencia de la holgura, cuando el engranaje primario gira un angulo menor
que b, el secundario no se mueve, como corresponde a la zona muerta (segmento
OA en la figura 13.10); despues de establecido el contacto en engranaje secundario
sigue la rotacion del primario de manera lineal (segmento AB). Si se invierte el
sentido de giro del engranaje primario entonces durante un angulo 2b el secundario
no se mueve, de acuerdo con el segmento BC de la figura 13.10. Cuando se
restablece el contacto entre los dos engranajes el secundario sigue al primario en
la direccion opuesta (segmento CD). Por consiguiente, si el engranaje primario

Sistemas no lineales

295

Engranaje secundario

angulo
salida

Engranaje primario

C
B

-b

A
0

angulo
entrada

Figura 13.10: Caracterstica de una holgura.


esta sometido a un movimiento periodico el secundario recorrera el camino cerrado
EBCD, de la figura 13.10. Conviene observar que los puntos B, C, D y E de la
figura dependen de la amplitud de la se
nal sinusoidal de entrada.
La holgura suministra un ejemplo de no linealidad con memoria, en la que
el valor de la salida en un instante de tiempo determinado, no depende exclusivamente del valor de la entrada en ese instante, sino de la historia previa de las
se
nales de entrada que afectan al sistema.
El calculo de la funcion descriptiva resulta en este caso mas complejo que
en el de la no linealidades sin memoria. En la figura 13.11 se muestra como
se genera la se
nal de salida para una se
nal sinusoidal de entrada. La se
nal de
salida v(t), en un periodo, se determina dividiendo este periodo en las cuatro
partes correspondientes a los cuatro tramos que aparecen en el romboide de la
caracterstica. Se tiene

v(t) = (A b)k
t
2
v(t) = A( sen t + b)k t 3
2
3
v(t) = (A b)k
t 2
2
v(t) = A( sen t b)k 2 t 5
2

donde = sen 1 (1 2b/A). En este caso la caracterstica no es uniforme y la


componente fundamental de la se
nal de salida presenta variacion de amplitud y
de fase. Se tiene

!
4kb b
1
a1 =
A

b1 =

Ak
sen

v
!u
u
t

2b
2b
1
1
A
A

!2

2b
1
A

Sistemas no lineales

296

v
k(A b)

v(t)
3/2

-b
b

/2

k(A b)
-A

A
x(t)
/2

entrada sinusoidal

3/2
2

Figura 13.11: Generacion de la se


nal de salida para una se
nal sinusoidal de entrada en una holgura.

Sistemas no lineales

297

es decir, la funcion descriptiva de una holgura viene dada por


1q 2
| N (A) |=
a + b21
A 1

a1
b1
En las figuras 13.12 y 13.13 se representan la amplitud y desfase, respectivamente,
de la funcion descriptiva de una holgura. Observese que en este caso la funcion
6

N (A) = tan1

1.0

Amplitud

0.8

0.6

0.4

0.2

0.0
0.0

0.2

0.4

0.6

0.8

1.0

b/A

Figura 13.12: Amplitud de la funcion descriptiva de una holgura.


descriptiva depende exclusivamente de la amplitud de la se
nal de entrada, como
suceda en las no linealidades sin memoria (como la saturacion y el rele) que
se han visto anteriormente. Sin embargo, en este caso la funcion descriptiva
tiene modulo y argumento (amplitud y desfase), mientras que en los casos de no
linealidades sin memoria la funcion descriptiva posee u
nicamente amplitud, y no
desfase.

13.2.4

Determinaci
on experimental de la funci
on descriptiva

En lo ejemplos que se acaban de ver, se ha determinado la funcion descriptiva


mediante la aplicacion de metodos matematicos. Ello es posible cuando la formulacion matematica del problema es aceptablemente sencilla. Cuando no es as, se
procede de manera experimental con ayuda de un analizador armonico. Se excita

Sistemas no lineales

298

Desfase

-30

-60

-90
0.0

0.2

0.4

0.6

0.8

1.0

b/A

Figura 13.13: Desfase de la funcion descriptiva de una holgura.


el sistema no lineal cuya descripcion descriptiva se quiere determinar, con se
nales
sinusoidales, y la salida se analiza mediante el analizador armonico, de modo
que se discrimine el primer armonico. Comparando las amplitudes y fases de la
se
nal de entrada y del primer armonico se puede determinar experimentalmente
la funcion descriptiva. Conviene observar que, en este caso, y al contrario de lo
que sucede con los sistemas lineales, el analisis debe realizarse para se
nales de entrada de diferente amplitud; es decir, el ensayo debe realizarse variando tanto la
amplitud como la frecuencia de la se
nal de entrada. De este modo se determinan
los datos que permiten establecer la funcion N (A, ). Estos datos se procesaran
normalmente mediante tablas, y no mediante expresiones analticas.

13.3

An
alisis de sistemas no lineales mediante
la funci
on descriptiva

En las secciones anteriores hemos visto como se determina la funcion descriptiva


de un elemento no lineal. Ademas en la seccion 13.1.1 se presento un ejemplo
introductorio que permita analizar la existencia de ciclos lmites en un sistema
no lineal mediante la funcion descriptiva. En esta seccion vamos a generalizar el
metodo all presentado. Para ello, en primer lugar, conviene recordar el criterio
de Nyquist.

Sistemas no lineales

299

G(s)
-

H(s)

Figura 13.14: Sistema lineal realimentado.

G(s)H(s)

plano s

-1

Figura 13.15: Criterio de Nyquist.

13.3.1

Una ampliaci
on del criterio de Nyquist

Sea el sistema lineal de la figura 13.14, cuya ecuacion caracterstica resulta ser
1 + G(s)H(s) = 0

(13.21)

como se recordara el criterio de Nyquist permite conocer el n


umero de raices
de la ecuacion caracterstica con parte real negativa. Para ello basta dibujar la
aplicacion C del contorno de Nyquist en un plano complejo apropiado, determinar
el n
umero N de veces que este contorno C rodea al punto (-1,0) y aplicar la
conocida expresion
Z =N +P
en donde P es el n
umero de polos inestables de la funcion de transferencia en
bucle abierto GH. Entonces Z es el n
umero de polos inestables del sistema en
bucle cerrado (con solo que haya uno, el sistema es inestable).

Sistemas no lineales

300

Im

0 +

G(s)

G(s)H(s)

-1
Re
H(s)

1/k

Figura 13.16: Ampliacion del criterio de Nyquist.


Funcion descriptiva
r(t) = 0 +

x(t)

N (A, )

Elemento lineal

v(t)

G(j)

y(t)

Figura 13.17: Sistema no lineal.


El criterio de Nyquist se amplia formalmente para el caso en el que una constante k, que consideraremos que puede ser un n
umero complejo, se incluye en la
cadena directa de la figura 13.16. En tal caso la ecuacion caracterstica resulta
ser
1 + kG(s)H(s) = 0
(13.22)
y por tanto,

1
(13.23)
k
Es facil ver que en este caso el criterio de Nyquist se aplica igual que en el caso
anterior (de la figura 13.15) con la diferencia de que ahora N representa el n
umero
de veces que el contorno de Nyquist de GH rodea al punto 1/k, lo que se ilustra
en la figura 13.16.
G(s)H(s) =

13.3.2

Oscilaciones de un servomecanismo no lineal

Considerese el sistema no lineal de la figura 13.17. Diremos que este sistema


presenta una oscilacion automantenida si para r = 0 el sistema presenta un

Sistemas no lineales

301

comportamiento oscilatorio. Supongamos que esta oscilacion viene dada por la


expresion
x(t) = A cos t
(13.24)
El componente fundamental de la se
nal de salida del elemento no lineal v(t)
resulta ser
v(t) =| N (A, ) | A cos (t + (A, ))
(13.25)
Es sabido que (13.24) y (13.25) pueden escribirse de la forma
x(t) = <{Aejt }
v(t) = <{| N (A, ) | Aej(t+(A,)) }
Empleando esta u
ltima forma de representar un comportamiento oscilatorio, se
tiene que la salida del elemento lineal vendra dada por
y(t) = <{| N (A, ) | A | G(j) | ej(t++) }
siendo = 6 G(j).
Para que la oscilacion sea automantenida, en ausencia de se
nal de excitacion
r, se requiere que:
Aejt =| N (A, ) | A | G(j) | ej(t++)
Es decir,

Aejt | N (A, ) || G(j) | ej(+) + 1 = 0


La anterior expresion se debe satisfacer para todo t, por lo que se tendra
| N (A, ) || G(j) | ej(+) + 1 = 0
es decir,
N (A, )G(j) + 1 = 0
y por tanto,
G(j) =

1
N (A, )

(13.26)
(13.27)

y cualquier par de valores de A y que satisfaga la anterior ecuacion puede dar


lugar a un ciclo lmite. De aquellos valores que satisfagan esta ecuacion, solo dara
lugar a un ciclo lmite aquellos para los que la oscilacion periodica sea estable.

Sistemas no lineales

302

G(j)

Im

Re
A

1/N (A)

Figura 13.18: Determinacion de un ciclo lmite.

13.3.3

Funci
on descriptiva independiente de la frecuencia

Considerese el caso en el que la funcion descriptiva N es u


nicamente funcion de
la amplitud A. Este caso incluye todas las no linealidades cuya caracterstica es
uniforme y algunas no linealidades biformes interesantes como la holgura. En
este caso la expresion (13.27) se convierte en
G(j) =

1
N (A)

(13.28)

En la figura 13.18 se han representado la funcion de transferencia de la parte


lineal G(j) (parametrizado en ) y la curva correspondiente a la inversa de
la funcion descriptiva, con el signo cambiado, (parametrizada en A) en el plano
complejo. Si estas dos curvas se cortan, entonces los valores de A y de correspondientes al punto de interseccion son soluciones de la ecuacion 13.28, y en
consecuencia, pueden existir ciclos lmites. Por ejemplo, en la figura 13.18 las dos
curvas se cortan en el punto L.
Conviene recordar que para no-linealidades uniformes N es siempre real y por
consiguiente el trazado de (13.28) siempre esta situado sobre el eje real.

13.3.4

Funci
on descriptiva dependiente de la frecuencia

En el caso general la funcion descriptiva depende tanto de la amplitud de la se


nal
de entrada como de su frecuencia y, en consecuencia el metodo que se acaba de
ver en el apartado anterior, adquiere mayor complejidad. En tal caso la expresion
en el segundo miembro de (13.27) da lugar a una familia de curvas en el plano

Sistemas no lineales

303

1/N (A, )

Im
G(j)

4
A

3
2

Re

Figura 13.19: Determinacion de ciclos lmite con funciones descriptivas dependientes de la frecuencia.

A1

A2

A3

A4

-1

G(j)N (A, )

Figura 13.20: Resolucion grafica de la ecuacion N (A, )G(j) + 1 = 0.


complejo con A como parametro y permaneciendo constante en cada curva,
como se muestra en la figura 13.19. De todas las intersecciones entre la familia de
curvas 1/N (A, ) y la curva G(j) solamente aquellos puntos de interseccion en
los que coincidan los valores de constituyen soluciones de la ecuacion (13.27), y
son, por tanto, candidatos a ciclos lmites. Existe otro procedimiento grafico para
resolver la expresion (13.27). Consiste en considerar la representaciones graficas
de G(j)N (A, ). Dando a A un valor constante y variando de 0 a infinito, se
obtiene una curva que representa a G(j)N (A, ). Procediendo con diferentes
valores de A se obtiene una familia de curvas, como la que se muestra en la figura
13.20. La curva de esta familia que pase por el punto (-1,0) en el plano complejo
suministra una solucion de la expresion (13.27) .

Sistemas no lineales

304

Im
G(j)

L2

L1

1/N (A, )

Re

L01
L1

Figura 13.21: Estabilidad de ciclos lmite.

13.3.5

Estabilidad de los ciclos lmite

Con los ciclos lmites sucede lo mismo que con los equilibrios: que pueden ser
estables o inestables. Las soluciones de la ecuacion (13.27) deben someterse a
un analisis de estabilidad, para determinar cuales de ellas son estables y cuales
no. El criterio de Nyquist ampliado que hemos visto en la seccion 13.3.1, permite
analizar esa estabilidad. Considerese la figura 13.21 en la que se muestran las
intersecciones entre la funcion de transferencia de la parte lineal y la inversa
de la funcion descriptiva de la parte no lineal. Estas dos curvas presentan dos
puntos de interseccion, L1 y L2 , por lo que el sistema presenta dos ciclos lmites.
Observese que el valor de A correspondiente al punto L1 es menor que el de A
correspondiente a L2 . Supongase que la funcion de transferencia de la parte lineal
G(j) no posee polos inestables.
Vamos a analizar primero la estabilidad del ciclo lmite correspondiente al
punto L1 . Considerese que el sistema se encuentra inicialmente operando en el
punto L1 , con un ciclo lmite de amplitud A1 y cuya frecuencia en 1 . Debido a
una peque
na perturbacion, la amplitud de la se
nal de entrada al sistema no lineal
se incrementa ligeramente, y el punto de operacion del sistema se mueve de L1 a
L01 . Puesto que el nuevo punto L01 se encuentra a la derecha de la curva G(j), de
acuerdo con el criterio de Nyquist ampliado que se ha visto en la seccion 13.3.1,
el sistema es inestable, en este punto de operacion, y las amplitudes del sistema
tienden a crecer. Por consiguiente, el punto de operacion seguira creciendo a lo
largo de curva 1/N (A, ) hasta el punto L2 . Por otra parte, si el sistema se
perturba de modo que la amplitud A decrece, entonces el punto de operacion se
movera al punto L001 . En este caso el punto L001 queda a la izquierda de G(j) y

Sistemas no lineales

305

el criterio de Nyquist ampliado garantiza la estabilidad del sistema, por lo que


las amplitudes tenderan a decrecer y el punto de operacion se alejara cada vez
mas del punto de equilibrio L1 . De todo lo anterior se desprende que una ligera
perturbacion destruye la oscilacion en el punto L1 y que, por consiguiente, que
este ciclo lmite es inestable. Un analisis similar puede desarrollarse para el punto
L2 con la conclusion de que ciclo lmite en ese caso es estable.
El anterior razonamiento no es del todo convincente, y debe considerarse como
una forma intuitiva de presentar un resultado que, por otra parte es correcto,
como se vera a continuacion.
Una forma maas rigurosa de abordar el estudio de la estabilidad de las oscilaciones es el siguiente. Sea x = Aejt el primer armonico de la oscilacion
automantenida que se perturba ligeramente hasta que su amplitud toma el valor
A + A y su frecuencia + . Despues de la perturbacion, x(t) ya no es
una funcion periodica, sino que posee un peque
no amortiguamiento , positivo o
negativo. Es decir, despues de la perturbacion la se
nal se convierte en:
x(t) = (A + A)et ej(+)t (A + A)ej(++j)t

(13.29)

Por otra parte, la expresion (13.26) se puede escribir


X(A, ) + jY (A, ) = 0

(13.30)

agrupando los terminos correspondientes a sus partes real e imaginaria. Por otra
parte, la soluciono(13.29) debe satisfacer tambien la anterior ecuacion dando lugar
a:
X(A + A, + + j) + jY (A + A, + + j) = 0
(13.31)
Desarrollando en serie de Taylor esta expresion, y tomando u
u
nicamente los
terminos de primer orden en A, y , se tiene:
X
+

Y
+

X
Y
A
= 0
A

Y
X
A +
= 0
A

Eliminando :

!2

Y
+

!2

!
Y
X
Y
X
=

Sistemas no lineales

306

Para que la oscilacion sea estable es necesario que y A sean del mismo
signo, lo que exige que:

X Y
Y X

A
A

>0

(13.32)

En el caso de una no linealidad uniforme se tiene,


N (A, )G(j) + 1 = 0
Haciendo
G(j) = U () + jV ()
1
C(A) =
= P (A) + jQ(A)
N (A)
se tiene
X(A, ) = U () P (A)
Y (A, ) = V () Q(A)
Por lo que la expresion (13.32) se escribe en este caso

Q U
P V

A
A

>0

El primer miembro de esta desigualdad es un producto vectorial lo que puede


escribirse
dG(j) dC(A)

>0
d
dA
Este producto vectorial permite la interpretacion geometrica que se muestra en
la figura 13.21. De acuerdo con ella, un ciclo limite sera estable si recorriendo
G(j) en el sentido de las crecientes, en el punto de corte con C(A), se deja a
la izquierda el sentido de las A crecientes, en la curva de C(A) = 1/N (A).
figura: Criterio de estabilidad de ciclos llimite.
De este modo se ha demostrado con rigor el resultado que previamente se
haba obtenido por consideraciones un tanto laxas con respecto al criterio de
Nyquist.

Sistemas no lineales

307

r=0 +

G(s)
-

Figura 13.22: Sistema con un rele y realimentacion.


Ejemplo
Sea el sistema realimentado de la figura 13.22, que incluye un rele en la cadena
directa. Supongamos, en primer lugar, que la funcion de transferencia de la parte
lineal es:
K
G1 (s) =
s(s + 2)
Se trata de estudiar las posibles oscilaciones del sistema y su estabilidad.
Recordando la expresion (13.20) se tiene que la funcion descriptiva de un rele
viene dada por
4M
N (A) =
A
En este caso se supone que M = 1.
Seg
un lo que se ha visto, el sistema sera oscilatorio si existe una solucion a la
ecuacion
1
G1 () =
N (A)
Esta ecuacion, en este caso, conduce a
K
A
=
j(j + 2)
4
Es decir
4K = Aj(j + 2)
Igualando sus partes reales e imaginarias se tiene:
4K = A 2
2Aj = 0

Sistemas no lineales

308

De donde se desprende que = 0, y por lo tanto el sistema no oscilara, pues no


existe ninguna frecuencia para la que se tenga una solucion oscilatoria.
A la misma conclusion se llega empleando metodos graficos, y comprobando
que la representacion grafica de la funcion de transferencia de la parte lineal y de
la funcion descriptiva solo se cortan en el origen.
Supongamos ahora que la ecuacion de la parte lineal es
G2 (s) =

K
s(s + 2)(s + 5)

En ese caso la ecuacion de oscilacion se convierte en


K
A
=
j(j + 2)(j + 5)
4
es decir
4K = Aj(j + 2)(j + 5) = 7A 2 + Aj( 3 10)
Con lo que igualando partes reales e imaginarias se tiene
4K = 7A 2
3 10 = 0
Por lo tanto, en este caso el sistema oscila con una frecuencia =
amplitud A = 2K/35.

10 y una

Para estudiar la estabilidad del oscilador se recurre al diagrama de Nyquist


que se muestra en la figura 13.23. El punto de oscilacion corresponde al punto
P de esta figura. Para estudiar la estabilidad del ciclo lmite, supongamos, en
primer lugar, una perturbacion que haga que la entrada al elemento no lineal se
incremente a un nuevo valor, de modo que el punto de operacion se desplace a P 0 .
Puesto que P 0 se encuentra en la region de operacion estable, la amplitud de la
entrada al elemento no lineal tiende a decrecer y por tanto el punto de operacion
se mueve de nuevo a P . De forma analoga, si la perturbacion hace decrecer la
amplitud de la entrada al sistema no lineal entonces se produce un desplazamiento
del punto de operacion a P 00 , que se encuentra situado en la region de operacion
inestable. La amplitud de la entrada, en este caso, se incrementa de modo que
el punto de operacion vuelve de nuevo a P . Por consiguiente el sistema tiene un
ciclo lmite estable en P .

Sistemas no lineales

309

Im
G2 (j)
A
P0

P P

Re

Figura 13.23: Estudio de la estabilidad de un sistema no lineal con un rele.

13.3.6

Fiabilidad del an
alisis mediante funciones descriptivas

Cuando se emplea el metodo de la funcion descriptiva conviene no olvidar nunca


el caracter aproximado de esa funcion, lo que conduce a resultados que tienen
tambien una naturaleza aproximada. Este caracter aproximado afecta no solo a
los valores numericos de las amplitudes y frecuencias de las oscilaciones de los
ciclos lmites, sino tambien a la propia existencia de estos.
Conviene recordar una de las hipotesis sobre las que esta basado el metodo:
el caracter de filtro paso bajo del sistema lineal. Ademas, la propia expresion
(13.27) puede ser sensible a las aproximaciones que comporta el metodo. Con
caracter general se puede decir que las conclusiones del metodo seran tanto mas
solidas cuanto mas neta sea la interseccion de las curvas que representan la parte
lineal y la inversa de la parte no lineal en la resolucion grafica del metodo. En la
figura 13.24 se muestran dos situaciones extremas posibles. En la figura 13.24a se
presenta un caso en el que el sistema muestra una gran sensibilidad, lo que hace
temer que las conclusiones del metodo se puedan ver fuertemente afectadas.
Por otra parte, la figura 13.24b muestra un caso en el que las conclusiones son
altamente fiables. Cabe decir, que cuanto mas perpendicular es la interseccion
entre las curvas G(j) y 1/N (A, ), mas fiables son los resultados del metodo.

Sistemas no lineales

310

a)

Figura 13.24:

b)

Sistemas no lineales

311

13.4

Criterios de estabilidad relativos a la descripci


on interna

13.4.1

Teora de Lyapunov

El estudio de la estabilidad de los sistemas en torno a los puntos de equilibrio se


puede hacer con gran sencillez y elegancia con ayuda de la teora de Lyapunov.
La utilidad del metodo de Lyapunov reside en el hecho de que su teora establece
una condicion suficiente para la estabilidad de un sistema dinamico. El establecimiento de esta suficiencia consiste en la determinacion de una funcion de energa,
llamada funcion de Lyapunov, la cual puede determinarse sin el conocimiento
explcito de la solucion de la ecuacion diferencial del sistema.

13.4.2

Un ejemplo introductorio

Sea el sistema de la figura 13.25, constituido por una masa (m = 1), que se
desplaza sobre una lnea recta, y que esta unida a una pared por medio de un
resorte y de un amortiguamiento. Se supone que el resorte y el amortiguamiento
son no lineales. El resorte ejerce una fuerza k(x) que depende del desplazamiento
x de la masa de la posicion de equilibrio. La forma de k(x) se representa en la
figura 13.26. El amortiguador ejerce una fuerza proporcional al valor instantaneo
de la velocidad dx/dt de la masa, de manera que el factor de proporcionalidad
este dado por h(x). El balance de fuerzas sobre el sistema conduce a la siguiente
ecuacion.
d2 x
dx
+ h(x) + k(x) = 0
(13.33)
2
dt
dt
Esta ecuacion puede escribirse, empleando las variables de estado x1 = x y
x2 = dx/dt, como sigue,
x 1 = x2
x 2 = k(x1 ) x2 h(x1 )

(13.34)

La energa total del sistema V esta formada por la energa cinetica de la masa
en movimiento y la energa potencial almacenada en el resorte, y viene dada por,
V (x1 , x2 ) =

x22 Z x1
+
k(x1 )dx
2
0

(13.35)

Sistemas no lineales

312

x
k(x)

h(x)

Figura 13.25: Sistema formado por una masa unida a un soporte


De la observacion de la anterior expresion se desprende que V satisface las dos
condiciones matematicas siguientes:
V (x) > 0 para x 6= 0
V (0) = 0

(13.36)

lo que, dicho en palabras, significa que la energa del sistema es siempre positiva
excepto cuando el sistema esta en reposo.
Interesa ahora averiguar como evoluciona la energa del sistema con el tiempo.
Para ello se determina la derivada total de V con respecto al tiempo que resulta
ser,
dV
V dx1
V dx2
=
+
(13.37)
dt
x1 dt
x2 dt
de donde se obtiene, teniendo presente 13.34 y 13.35,
dV
= k(x1 )x2 + x2 [k(x1 ) x2 h(x1 )] = x22 h(x1 )
dt

(13.38)

Se supondra que h(x) > 0 para todo x. Fsicamente, ello representa un amortiguamiento positivo, es decir, que la fuerza que ejerce el amortiguador se opone
siempre al movimiento.
En consecuencia, dV /dt es negativa, excepto en los puntos en donde la velocidad sea nula en los cuales dV /dt es, a su vez, nula. En consecuencia, la energa del
sistema no puede aumentar ni puede permanecer constante excepto en el estado
de equilibrio; por consiguiente, la energa debe siempre decrecer hasta alcanzar el
estado de equilibrio, en donde permanece constantemente igual a cero. Observese
que lo que sucede es que el sistema pierde progresivamente su energa, suma de
la cinematica y la potencial, en un proceso disipativo debido al amortiguamiento

Sistemas no lineales

313

k(x)

Figura 13.26: Fuerza estatica que ejerce el soporte

V3
V2

V1

V3 > V 2 > V 1

Figura 13.27: Las trayectorias cortan transversalmente las curvas equipotenciales

Sistemas no lineales

314

representado por h(x). Si no existiese este amortiguamiento, y fuese h = 0,


entonces en la expresion (13.38) se tendra dV /dt = 0.
Para el caso de que el resorte y el amortiguador sean lineales, se tendra que
k(x) = kx y h(x) = h, en donde k y h son constantes. En tal caso 13.35 se
convierte en,
kx21 + hx22
V (x1 , x2 ) =
(13.39)
2
La evolucion del sistema puede, en este caso, ser objeto de una interpretacion
geometrica. La evolucion de las variables de estado x1 y x2 pueden interpretarse
graficamente en un plano llamado el plano de estado. En este plano las superficies
V = const, dan lugar a elipses, tal como se indica en la figura 13.27. La evolucion
del sistema, es decir, una solucion de la ecuacion 13.33, se representa en el plano
de estado por medio de una trayectoria, tal como la que se indica en la figura
13.27. Puesto que la energa debe siempre decrecer, la trayectoria debe atravesar
las elipses desde el exterior hacia el interior. De este modo, la trayectoria se
aproxima progresivamente al origen, que es el estado de equilibrio.
Debe notarse que las conclusiones relativas a la estabilidad del sistema, a
un
en el caso de que el resorte y el amortiguador sean no lineales, se obtienen sin
necesidad de resolver la ecuacion diferencial 13.33. Es decir, de la observacion de
la expresion 13.38 se concluye que siempre que el amortiguamiento sea positivo,
el sistema evolucionara hacia una posicion de equilibrio.
Este ejemplo muestra la esencia del metodo de Lyapunov, el cual consiste en
la determinacion de una funcion, que juega el mismo papel que la funcion V (t)
en este ejemplo, y en el estudio de la evolucion con el tiempo de la misma. En
las secciones siguientes se estudia con detenimiento este metodo.

13.4.3

Noci
on de estabilidad en el sentido de Lyapunov

Antes de proceder al estudio de la estabilidad de un sistema representado por su


descripcion interna, conviene introducir las siguientes definiciones:
1. Estado de equilibrio
Un estado xe de un sistema dinamico se dice que es un estado de equilibrio
si,
xe = (t, t0 , xe , 0)
(13.40)

Sistemas no lineales

315

para alg
un t0 y para todo t > t0 .
La anterior definicion indica que si el sistema se encuentra en el estado de
equilibrio y no se le aplica ninguna se
nal de entrada, permanece indefinidamente en dicho estado. Formalmente, un estado de equilibrio es una solucion
del sistema de ecuaciones,
xe = (t, t0 )xe

(13.41)

Es claro que el estado 0 es un estado de equilibrio de un sistema dinamico.


2. Estabilidad en el sentido de Lyapunov
Un estado de equilibrio xe se dice estable en el sentido de Lyapunov si, y
solo si, para todo n
umero positivo existe un n
umero positivo () tal que,
(k x0 xe k ) ((t, t0 , x0 , 0) k )
para un cierto valor de t0 y para todo t > t0 .
De una manera intuitiva se puede decir que un estado de equilibrio xe es
estable en el sentido de Lyapunov si la trayectoria del estado a partir de
un estado suficientemente cercano a xe no se separa significativamente del
estado de equilibrio. En la 13.28 se ilustra el concepto de estabilidad en el
sentido de Lyapunov.
3. Estabilidad asintotica en el sentido de Lyapunov
Un estado de equilibrio xe se dice que es asintoticamente estable, si es
estable en el sentido de Lyapunov, y ademas todas las trayectorias del estado
que se inicien suficientemente cerca de xe convergen a xe cuando t .
Formalmente se puede interpretar este resultado como sigue.
Para todo n
umero real > 0, existe una constante real > 0 tales que les
corresponde un n
umero real T (, ) > 0 tal que,
[k x0 xe k ] [k (t, t0 , x0 , 0) xe k ]

(13.42)

para todo t > t0 + T.

13.4.4

Teorema de Lyapunov

Antes de proceder a enunciar el teorema de Lyapunov conviene introducir el


concepto de funcion definida positiva.

Sistemas no lineales

316

V (x) = k

x0

Figura 13.28: Estabilidad en el sentido de Liapunov


Una funcion escalar V (x), de n variables, se dice que es definida positiva en
una region R alrededor del origen si,
1. V (x) es continuamente diferenciable en IR.
2. V (0) = 0.
3. V (x) > 0 para todo x 6= 0 perteneciente a IR.
Si la condicion (3) de la definicion anterior se cambia a V (x) 0 para todo
x perteneciente a R, entonces se dice de V (x) que es positiva semidefinida. Si
V (x) < 0, entonces V (x) es definida negativa; y, por u
ltimo, si V (x) 0 entonces
V (x) se dice semidefinida negativa.
Con la ayuda de estos conceptos se puede proceder a enunciar el siguiente
teorema, debido a Lyapunov.
Teorema
El estado de equilibrio xe = 0 de un sistema autonomo es estable si
existe una funcion definida positiva V (x), tal que su derivada total
con relacion al tiempo dV (x)/dt a lo largo de toda trayectoria del
sistema, es semidefinida negativa.

Sistemas no lineales

317

Demostraci
on
Una funcion V (x) tal que satisfaga las condiciones del teorema anterior, recibe
la denominacion de funcion de Lyapunov.
La existencia de una funcion de Lyapunov garantiza la estabilidad de un
sistema. En efecto, considerese el espacio bidimensional que se muestra en la
figura 13.28. Considerese ademas, sin perdida de generalidad, que el origen es un
estado de equilibrio, cuya estabilidad se quiere analizar. Para que el sistema sea
estable, debe demostrarse que dado un cierto > 0, entonces existe > 0 tal que
(k x0 k< ) (k (t, t0 , x0 , 0) k< )

(13.43)

para todo t > t0 . Sea tal como se muestra en la figura 13.28. Puesto que existe
una funcion de Lyapunov V (x), esta funcion sera tal que V (x) > 0 para todo
x 6= 0.
Considerese el contorno de V (x) = k, para todo x . Se elige un valor de
tal que sea la menor distancia entre el estado de equilibrio y la curva V (x) = k.
Considerese cualquier x0 situado en el interior del circulo definido por el radio .
Se tendra que V (x0 ) < k.
El anterior teorema puede modificarse para el caso de la estabilidad asintotica,
sencillamente cambiando la condicion de que V (x) sea semidefinida negativa,
por la de que sea definida negativa. La demostracion del teorema, con esta
modificacion, es muy simple.
Ejemplo
Considerese el sistema no-lineal descrito por ,
x 1 = x2 x1 (x21 + x22 )
x 2 = x1 x2 (x21 + x22 )
Si se adopta
V (x) = x21 + x22
Se tendra

V (x) = 2(x21 + x22 )2

La cual es negativa excepto para x1 = x2 = 0. Es decir, V es decreciente a lo


largo de cualquier solucion y, por lo tanto, V es una funcion de Lyapunov. Se
concluye que el sistema es asintoticamente estable.

Sistemas no lineales

13.4.5

318

Aplicaci
on del m
etodo de Lyapunov a sistemas lineales

Supongase un sistema caracterizado por la terna (A, b, c). Se trata de establecer criterios que permitan discernir si un sistema sera estable o no a partir del
conocimiento de las matrices que constituyen la anterior terna.
Para un sistema lineal, la transicion entre estados puede descomponerse en
una transicion con entrada nula, y una transicion a partir del estado nulo, de
acuerdo con la siguiente expresion:
x(t) = (t1 , t0 , x0 , u) = (t1 , t0 , x0 , 0) + (t1 , t0 , 0, u)

(13.44)

Ello es una consecuencia inmediata de la propiedad de superposicion. Para el


estudio de la estabilidad tiene un gran interes la anterior descomposicion. De hecho, se procede a estudiar por separado la estabilidad de cada uno de los terminos
de la expresion 13.44. Combinando los resultados de estabilidad de cada una de
las partes, se obtiene la estabilidad del sistema.
Sea xe un estado de equilibrio. Se puede escribir,
x(t) xe = (t) (x0 xe )
= eAt (x0 xe )

(13.45)

y definiendo x = x xe se tiene que:


x(t) = eAt x(0)

(13.46)

La estabilidad en el sentido de Lyapunov tal como se ha definido anteriormente, exige que |x(t)| < k, para todo t. De la observacion de la expresion
13.46, se tiene que el que |x(t)| < k es equivalente a que k eAt k< k, en donde
k eAt k representa la norma de la matriz eAt .
Por otra parte se sabe que A se puede escribir,
A = P A P 1

(13.47)

en donde P es una matriz no singular y A es la forma de Jordan de la matriz A.


Es sabido que,
(13.48)
eAt = P eAt P 1

Sistemas no lineales

319

luego, de las propiedades de la norma de una matriz, se tiene que,


k eAt k=k P k k eAt k k P 1 k

(13.49)

De la expresion (13.49) se desprende el hecho de que k eAt k este, a su vez,


acotada. Por lo tanto el estudio de las condiciones que debe cumplir k eAt k para
que este acotada, se puede reducir al de k eAt k.
Ahora bien eAt esta acotada si y solo si lo estan todos los elementos de esa
matriz. Estos elementos son de la forma tk ei t en donde i = i + jwi es un
autovalor de A. Si i es negativo, es inmediato que tk ei t esta acotado solo si
k = 0, es decir, el autovalor imaginario puro es un cero simple del polinomio
mnimo de A.
Teorema
El estado de reposo de x = Ax, considerado como estado equilibrio, es
asintoticamente estable si y solo si todos los autovalores de A tienen
la parte real negativa.
Demostraci
on
Siguiendo la misma lnea de la demostracion del teorema anterior, se tiene
que el estado de reposo sera asintoticamente estable, si ademas de k eAt k ser
acotada, se exige que eAt tienda a cero cuando t . Razonando como se hizo
en la demostracion del anterior teorema se tiene que ello solo sera posible si todos
los autovalores de A tienen la parte real negativa.
Para estudiar la estabilidad de la respuesta del sistema a partir del reposo,
debe recordarse que la respuesta de un sistema a partir del reposo viene dada
por:

y(t) =

Z t
t0

g(t, ) u( ) d

(13.50)

Por otra parte, la respuesta de un sistema a una entrada nula, viene dada por
la solucion del sistema de ecuaciones diferenciales siguiente,
x = Ax

(13.51)

Sistemas no lineales

320

a partir de un estado inicial arbitrario. Esta respuesta viene dada por,


x(t) = (t, t0 ; x0 , 0) = (t, t0 )x0

(13.52)

Para estudiar las aplicaciones del metodo de Lyapunov al estudio de la estabilidad de sistemas lineales, estacionarios, conviene introducir previamente la
nocion de matriz definida positiva.
Una matriz Q se dice definida positiva si la forma cuadratica xT Qx es positiva
definida. Se escribe entonces Q > 0.
De forma analoga se define una matriz semidefinida positiva, definida negativa
y semidefinida negativa (y se escribe Q 0, Q < 0, y Q 0, respectivamente).
Para determinar si una matriz Q es definida positiva , se aplica el criterio de
Sylvester, el cual establece que la matriz Q es definida positiva si se cumple que

q11 > 0,

det

q11 q12
q21 q22

> 0,

q11 q12 q13

det q21 q22 q23 > 0,


q31 q32 q33

Considerese un sistema lineal autonomo,


x(t)

= Ax(t)

(13.53)

Para estudiar si el origen es un estado de equilibrio asintoticamente estable,


se establece el siguiente teorema.
Teorema
Si el sistema (13.53) es asintoticamente estable, entonces para toda
matriz definida positiva P la ecuacion
AT Q + QA = P

(13.54)

tiene una solucion (


unica) Q definida positiva.
Inversamente, si para una matriz P arbitraria definida positiva, la
ecuacion (13.54) tiene una solucion Q definida positiva, entonces el
sistema (13.53) es asintoticamente estable.

Sistemas no lineales

321

Demostraci
on
1. Necesidad
Supongase que 13.53 es asintoticamente estable. Entonces para cualquier
P > 0 se define Q como,
Q=

Z
0

eA P eA d

que esta completamente definida si A es asintoticamente estable. En tal


caso

A Q + QA =
=

Z
Z0
0

AT eA P eA + eA P eA A d

d eA P eA = P

Es decir, si el sistema es asintoticamente estable para cualquier P > 0 existe


Q tal que satisface (13.54).
2. Suficiencia
Supongase que para un cierto P > 0, la expresion (13.54) tiene una solucion
Q > 0. Entonces se define la funcion de Lyapunov
V (x) = xT Qx
cuya derivada total es
dV
(x) = x T Qx + xT Qx
dt
= xT AT Qx + xT QAx
= xT P x < 0
es decir, el sistema es asintoticamente estable.
Puesto que la matriz P es arbitraria aunque simetrica, en las aplicaciones
practicas se hace P = I.
Ejemplo

Sistemas no lineales

322

Supongamos que el sistema de la expresion (13.33) se adopta en forma lineal


y se hace h = 1 y k = 2. Se tiene entonces el sistema lineal siguiente:
x + x + 2x = 0
cuya descripcion interna, haciendo x = x1 y x = x2 viene dada por:
x 1 = x2
x 2 = 2x1 x2
El estado de equilibrio es el origen x = 0. Se trata de estudiar la estabilidad
de este equilibrio empleando el metodo que se acaba de estudiar. Haciendo P = I
se tiene que la ecuacion (13.54) se convierte en,
AT Q + QA = I
la cual, particularizando los valores de A, se convierte en:

0 2
1 1

q11 q12
q12 q22

q11 q12
q12 q22

0
1
2 1

1
0
0 1

en donde se ha tenido en cuenta que q21 = q12 . La anterior ecuacion se puede


escribir en forma de un sistema de ecuaciones en q11 , q12 y q22 , las cuales resultan
ser las siguientes:
4q12 = 1
q11 q12 2q22 = 0
2q12 2q22 = 1
Estas ecuaciones admiten la solucion
q11 =

7
4

por lo tanto,

q12 =

Q=

1
4

q22 =

7/4 1/4
1/4 3/4

3
4

Esta matriz, aplicando el criterio de Sylvester, resulta ser definida positiva. De


ello se concluye que el sistema es asintoticamente estable en torno al origen. La
funcion de Lyapunov correspondiente es
7
1
3
V (x) = x21 + x1 x2 + x22
4
2
4

Sistemas no lineales
y V viene dada por,

323

V = x21 x22

que es definida negativa, luego el sistema es estable.


Observese que si se adoptase la energa como funcion de Lyapunov (recordando
la expresion (13.35)) se tendra
V = x21 + x22
y que

V = x22

Lo que se ha querido es mostrar una funcion de Lyapunov general, que no se


corresponda con la energa.
Por otra parte, este ejemplo solo pretende ilustrar el metodo anterior. Estaa
claro que la determinacionode la estabilidad del equilibrio se hace de forma mas
sencilla calculando los autovalores del sistema y comprobando que los dos tienen
parte real negativa.

13.5

Construcci
on de funciones de Lyapunov con
formas cuadr
aticas

Sea el sistema no lineal, con equilibrio en el origen:


x = f (x)

f (0) = 0

(13.55)

Supongase que la dependencia funcional de f con relacion a las variables x1 , x2 , ...xn ,


se puede descomponer aditivamente; es decir,
fi =

n
X

fij (xj )

(13.56)

j=1

Este supuesto puede parecer restrictivo, pero en realidad esta implcito en el


tipo de sistemas considerados hasta ahora, en los que se tenan no linealidades
dependientes de una u
nica variable conectadas entre s mediante modulos aditivos.
En los ejemplos que veremos mas abajo, quedara claro este hecho.
La expresion (13.56) puede escribirse
fi =

n
X
fij (xj )
j=1

xj

xj

Sistemas no lineales

324

vamos a hacer la hipotesis adicional de que existe el lmite


fij (xj )
xj 0
xj
lim

lo cual significa que cada funcion fij (es decir, cada caracterstica no lineal del
sistema) tiene en el origen una pendiente no nula. Todas las caractersticas que
se han visto hasta ahora cumplen esta propiedad. En consecuencia, la expresion
(13.55) puede escribirse
x = F (x)x
(13.57)
siendo

F (x) =

fij (xj )
xj

observese que (13.57) recuerda formalmente a un sistema lineal como el de la


expresion 17.20, con la diferencia de que aqu la matriz A depende del estado x
(por eso el sistema es no lineal).
Vamos a ver que gracias precisamente a la forma que tiene la expresion (13.57)
es posible ampliar el metodo aplicado a los sistemas lineales, a esta clase de
sistemas no lineales. En efecto, considerese una funcion de Lyapunov de la forma:
V (x) = xT Qx

QT = Q

derivando esta funcion de Lyapunov con respecto al tiempo, y recordando (13.57),


se tiene
V (x) = x T Qx + xT Qx

= xT F T (x)Q + QF (x) x
De donde se concluye que si Q es definida positiva y si P , definida por

P (x) = F T (x)Q + QF (x)

es tambien definida positiva, entonces se cumplen las condiciones suficientes para


garantizar que el sistema (13.55) es asintoticamente estable.

Ejemplo
Sea el sistema representado en la figura 13.29. Este sistema esta formado por
una parte lineal y un bloque no lineal, que posee la caracterstica h. Se supone
que la referencia es u = 0, y que la caracterstica es tal que h(0) = 0. Se trata de
estudiar su estabilidad.

Sistemas no lineales

u +

325

+
-

x2

x1
y

z = h(y)

Figura 13.29:
Para ello, en primer lugar se escribe su descripcion interna
x 1 = x1 + 5x2
x 2 = h(x1 ) x2 + u
que, a su vez, se puede reescribir de la forma (13.57).

x 1
x 2

!
!
1
5
0

x1
= h(x1 )
+
u

x2
1
1

x1

siendo

(13.58)

1
5

F (x) = h(x1 )

1
x1
Puesto que u = 0 la expresion (13.58) es de la forma (13.57).

(13.59)

Se adopta la siguiente funcion de Lyapunov


V (x) =

x1 x2

q1 0
0 q2

x1
x2

Recordando la expresion (13.5) se tiene

2q1

P (x) = F T (x)Q + QF (x) =

q2

h(x1 )
5q1
x1

h(x1 )
q2
5q1

x1

2q2

La estabilidad del sistema (13.57) estara garantizada siempre que P (x) sea definida
positiva. Para ello se requiere que
q1 > 0

Sistemas no lineales

326

h(x)

Figura 13.30:

h(x1 )
4q1 q2 q2
5q1
x1

!2

>0

La segunda de estas desigualdades requiere un analisis detenido. Supongase que


los parametros q1 y q2 toman dos valores concretos; por ejemplo, q = 14 y q2 = 1.
En este caso la segunda desigualdad se convierte en

h(x1 ) 5
1

x1
4

!2

>0

que conduce a

9
h(x1 )
1
>
>
4
x1
4
Esta desigualdad se puede interpretar graficamente como se hace en la figura
13.30. De acuerdo con esta figura la caracterstica del sistema no lineal H debe
estar comprendida entre las rectas de pendientes 9/4 y 1/4. Si la caracterstica
H cumple esta condicion el sistema tiene garantizada su estabilidad.

Esta forma de establecer el criterio de estabilidad, mediante la definicion de


un sector en el que se confina la caracterstica no lineal del sistema tiene un gran
interes en las aplicaciones y aporta un instrumento para caracterizar la estabilidad
de sistemas no lineales de gran interes y posibilidades.

Sistemas no lineales

13.5.1

327

M
etodo de Krasovkii

El metodo de Krasovkii permite determinar la funcion de Lyapunov de un sistema


no lineal de la forma
x = f (x) f (0) = 0
(13.60)
fi
tal que x
existe en la region de interes. De acuerdo con este metodo se adopta
j
como funcion de Lyapunov

V (x) = kxk
2 = f T (x)f (x) 0

(13.61)

En tal caso se tiene

f
x
x

!T

f (x) + f T (x)

f
x
x

= f T (x)[F T (x) + F (x)]f (x)


= f T (x)P (x)f (x)
siendo
F (x) =

f
x

(13.62)

y
P (x) = [F T (x) + F (x)]

(13.63)

Si la matriz P (x) = F T (x) + F (x) es definida positiva entonces se cumplen las


condiciones suficientes para que (13.60) sea estable. Para que sea asintoticamente
estable se requiere que P (x) sea definida positiva. Observese que si P es definida
positiva, entonces V < 0, ya que esto u
ltimo es cierto para cualquier x y por
tanto paraf .

Ejemplo
Sea el sistema dinamico
x 1 = ax1 + x2
x 2 = x1 x2 x32
tal que a > 1. Su u
nico equilibrio en x = 0.

Sistemas no lineales

328

De acuerdo con (13.62) se tiene que

F (x) =

a
1
1 1 3x22

y recordando (13.63)

P (x) =

2a
2
2 2 + 6x22

para que P (x) sea definida positiva se tiene que cumplir


a>0
y ademas
4a + 12ax22 4 > 0
Puesto que a > 1 las dos desigualdades se cumplen y el sistema es asintoticamente
estable.

Ejemplo
Sea el sistema dinamico de la figura 13.5.1, en el que se tienen dos se
nales de
entrada u1 y u2 , dos se
nales de salida y1 y y2 , y dos no linealidades cuyas caractersticas vienen dadas por g1 y g2 . Se trata de estudiar la estabilidad de este
sistema.
Las ecuaciones del sistema dinamico correspondiente resultan ser
x 1 = g1 (x1 ) + g2 (x2 ) + u1
x 2 = x1 ax2 + u2
Se supone que u1 = u2 = 0 con lo que el sistema anterior se convierte en un
sistema autonomo. Se supone ademas que g1 (x1 ) = 0 y g2 (x2 ) = 0. Recordando
la expresion (13.62) se tiene

g1

F (x) = x1
1

g2

x2
a

Sistemas no lineales

329

u1 = 0

+
+

y1

x1
-

z1 = g1 (y1 )

z2 = g2 (y2 )

u2 = 0

x2

+
+

y2

Figura 13.31: Diagrama de bloques de un sistema no lineal.


Con lo que, de acuerdo con (13.63)

P (x) =

g2
g1
2
1+
x2
x1 !
g2
1+
2a
x2

Para que este sistema sea asintoticamente estable se requiere


1. a > 0,
2.

g1
> 0,
x1

g2
g1
1+
3. 4a
x1
x2

!2

> 0.

La condicion 2 se interpreta mediante la figura 13.32 en la que se pone de


manifiesto que la caracterstica g1 debe ser siempre monotona creciente.

Sistemas no lineales

330

La condicion 3 conduce a las regiones de estabilidad que se indican en la figura


13.33.
g1 (x1 )

pendiente siempre
positiva
x1

Figura 13.32: Condicion 2 para la estabilidad del sistema.

g1
a x
1

Estable
Inestable
-1

g2 (x2 )
x2

Figura 13.33: Condicion 3 para la estabilidad del sistema.

Tema 14
Introducci
on a la optimizaci
on de
sistemas din
amicos
14.1

Introducci
on

La optimizacion es un concepto que se emplea habitualmente en la vida ordinaria.


Cada vez que ante un determinado problema existen m
ultiples soluciones, se
adopta aquella que, bajo un cierto punto de vista, se considera la mejor. Este
concepto se puede formalizar, siempre que se puedan definir el conjunto U de
soluciones posibles, y exista una funcion J(u) que permita medir el grado de
bondad de cada una de las soluciones, habida cuenta del punto de vista adoptado.
En lo que sigue, se considerara la mejor solucion aquella para la que la funcion
J(u) adquiera el valor mnimo. En tal caso, el problema de optimizacion puede
expresarse formalmente como el de encontrar el valor u perteneciente a U tal
que:
J(u ) J(u) u U
La forma del conjunto U de soluciones posibles permite una primera clasificacion
de los problemas de optimizacion.
Los elementos que constituyen el conjunto U pueden ser n
umeros reales,
entre los que hay que elegir el valor mas conveniente para que J(u) tome un
valor mnimo. En tal caso, el problema de optimizacion recibe la denominacion de optimizacion estatica, puesto que se trata de determinar el valor
331

Introduccion a la optimizacion de sistemas dinamicos

332

que debe tomar un cierto parametro, o conjunto finito de parametros, para


que se obtenga la mejor solucion posible.
Los elementos que constituyen el conjunto U pueden ser los valores que
toma una funcion del tiempo u(t) para t [0, T ]. En tal caso se tiene la
denominada optimizacion dinamica.
El problema de la optimizacion estatica se reduce al de la determinacion de
los mnimos (o maximos) de una funcion escalar. El problema que se estudiara
aqu es el de la optimizacion dinamica, especialmente en su aplicacion a la teora
del control optimo.

14.2

Optimizaci
on Est
atica.

La optimizacion estatica se reduce a la aplicacion de los metodos de maximos y


mnimos de funciones ordinarias, que vamos a repasar en esta seccion.

14.2.1

Minimizaci
on de funciones

Sea D un subconjunto de n
umeros reales x, dado por D = {x | x0 < x < x1 } y
sea f una funcion real tal que f : D R. Se dice que f tiene un mnimo local
(relativo) en x si existe un entorno N de x tal que
f = f (x) f (x ) 0, x N
en tal caso se tiene,
x = (x x ) > 0, f > 0, =

f
>0
x

f
<0
x
Estos conceptos se ilustran en la figura 14.1. Es sabido que la condicion necesaria
para tener un mnimo es:
df
=0
dx
Mientras que la suficiente es:
d2 f
>0
dx2
x = (x x ) < 0, f > 0, =

Introduccion a la optimizacion de sistemas dinamicos

333

xo x x

x1

Figura 14.1: Mnimo de una funcion ordinaria

df
dx

d2 f
dx2

x
Figura 14.2: Derivadas sucesivas en un mnimo

Introduccion a la optimizacion de sistemas dinamicos

334

En la figura 14.2 se ilustran graficamente estas condiciones.


Los anteriores resultados se generalizan para funciones multivariables. En
efecto, sea x Rn , f : Rn R, (y = f (x1 , ..., xn )). Se supone:
f (x) es continua para todo x.
El vector gradiente

"

f
f
=
x
xi

es continuo para todo x.


La matriz hessiana H es continua para todo x
"

2f
H=
xi xj

En estas condiciones, la condicion necesaria para un mnimo en x resulta ser


f
=0
x
mientras que la suficiente es que la matriz hessiana
"

2f
H=
xi xj

sea definida positiva en x .

Restricciones o Ligaduras
Supongase que se trata de minimizar f (x) con la condicion adicional de que el
mnimo este localizado en el subespacio definido por g(x) = 0
g : Rn Rm
Metodo particular: eliminar m de las variables x1 , ..., xn en g(x) = 0 y sustituir
en f (x). Se tiene entonces una funcion de (n m) variables que se resuelve como
mas arriba. Esto no siempre es posible. En tal caso se emplea el metodo de los
multiplicadores de Lagrange.

Introduccion a la optimizacion de sistemas dinamicos

335

Vamos a considerar el caso en el que n = 2 y m = 1. Es decir, se trata


de minimizar una funcion f (x1 , x2 ) de dos variables x1 y x2 , sometida a una
restriccion g(x1 , x2 ) = 0. La condicion de mnimo es
df (x) =

f
f
dx1 +
dx2 = 0
x1
x2

ademas la restriccion g(x1 , x2 ) = 0 implica que


g
g
dx1 +
dx2 = 0
x1
x2
Se tiene, formalmente,

o sea que las fracciones

f
g
dx2
x
x
= 1 = 1
f
g
dx1
x2
x2
f
x1
f
x2

g
x1
g
x2
deben ser proporcionales para un valor de x(t) candidato al mnimo (o maximo).
Sea esta constante de proporcionalidad
f
f
x1
x2
=
=
g
g
x1
x2
Si se define la lagrangiana
L(x, ) = f (x) + g(x)
se tiene que

L
=0
x
es equivalente a (14.1), mientras que:
L
=g=0

(14.1)

Introduccion a la optimizacion de sistemas dinamicos

336

es la restriccion. En general, para un problema de dimensionon n arbitraria, la


lagrangiana se define:
L(x, ) = f (x) + T g(x)

Ejemplo
Determinar un punto, en un espacio tridimensional, que minimice la funcion
f (x1 , x2 , x3 ) = x21 + x22 + x23
y que este situado en la interseccion de la superficies
x3 = x1 x2 + 5
x1 + x2 + x3 = 1
Se define la lagrangiana
L = x21 + x22 + x23 + 1 (x1 x2 + 5 x3 ) + 2 (x1 + x2 + x3 1)
lo que conduce a las ecuaciones para el mnimo
L
x1
L
x2
L
x3
L
1
L
2

= 2x1 + 1 x2 + 2 = 0
= 2x2 + 1 x1 + 2 = 0
= 2x3 1 + 2 = 0
= x1 x2 + 5 x3 = 0
= x1 + x2 + x3 1 = 0

La solucion esta formada por los dos equilibrios (2, 2, 1) y (2, 2, 1).

14.3

Introducci
on al control
optimo

Sea un sistema dinamico descrito por una ecuacion diferencial de la forma:


x = f (x, u)

(14.2)

Introduccion a la optimizacion de sistemas dinamicos

337

En donde el punto sobre la x representa su derivada con relacion al tiempo


( dx
x).

El sistema dinamico descrito por la ecuacion anterior debe seguir


dt
una determinada trayectoria a partir del estado x(0), durante un intervalo de
tiempo [0, T ]. Se trata de determinar la se
nal u(t) que debera aplicarse durante
este intervalo de tiempo para que en su evolucion se minimice el funcional:
J=

Z T
0

L(x, u, t)dt + S(x(T ))

(14.3)

en donde las funciones de penalizacion L(x, u, t) y de coste terminal S(x(T )) son


en general funciones no negativas de x y de u, tales que L(0, 0, t) = 0 y S(0) = 0.
De todas las se
nales de mando u(t) U que pueden aplicarse al sistema descrito
por la ecuacion (14.2) durante el intervalo [0, T ], existira una u (t) tal que:
J(u (t)) J(u(t)) u(t) U

(14.4)

La se
nal u (t) recibe la denominacion de se
nal de control optima. Esta se
nal
constituye una prescripcion del conjunto de valores que debe tomar la se
nal de
entrada (de control) u durante el intervalo [0, T ].
En algunos problemas interesa en lugar de disponer de la se
nal de control

optima u (t), tener una expresion que permita calcular el valor de la se


nal de
entrada u en funcion del estado x en que se encuentre el sistema. Es decir,
determinar una expresion de la forma u (x). En tal caso se dice que se dispone
de una ley de control optima. La solucion es una solucion realimentada en la que
el valor que toma en cada instante, del intervalo [0, T ], por la se
nal de entrada u
esta determinada a partir del estado x en que se encuentra el sistema.
Las se
nales de entrada u(t) normalmente no pueden exceder unos determinados lmites. Una se
nal de entrada (control) que satisfaga unas ciertas restricciones
en el control durante todo el intervalo de operacion (0, T ) se denomina una se
nal
admisible de control (o control admisible). Se denota por U el conjunto de todos
los valores de la se
nal u(t) admisibles. u(t) es admisible si:
u(t) U t [0, T ]
Tambien pueden darse restricciones sobre x(t). Una trayectoria del estado x(t)
que satisfaga las restricciones sobre el estado durante todo el intervalo de operacion [0, T ] se denomina una trayectoria admisible. Si X denota el conjunto de
los valores admisibles, se dice que x(t) es admisible si:
x(t) X t [0, T ]
Los requerimientos sobre el funcionamiento de la planta se representan matematicamente
mediante un criterio o ndice de funcionamiento.

Introduccion a la optimizacion de sistemas dinamicos

14.3.1

338

Ejemplos

El problema del control optimo esta formado basicamente por un sistema dinamico
de la forma (14.2) y por un criterio a optimizar de forma (14.3). Vamos a dedicar
esta seccion a presentar algunos ejemplos de criterios de funcionamiento de la
forma (14.3).
Problema del tiempo mnimo
Se da el tiempo t = 0 y el estado inicial x(0) = x0 . El estado final se requiere
que se encuentre en una cierta region S X T . S es el conjunto objetivo (si el
estado final esta fijado de antemano, el conjunto S es una recta).
El objetivo del problema es transferir el estado del sistema desde x0 a S en
un tiempo mnimo. El criterio de funcionamiento es:
J = T
=

Z T
0

dt

Problema de la energa mnima


Se trata de transferir el estado de un sistema desde x0 hasta S con un gasto
mnimo de energa.
Normalmente u2 (t) es una buena medida del flujo de gasto de energa, de
modo que para minimizar este gasto se puede adoptar el ndice:
J=

Z T
t0

u2 (t)dt

Si el sistema posee varias se


nales de control se tiene
J=

Z T
t0

uT (t)u(t)dt

Para permitir mayor generalidad se puede considerar una matriz definida positiva
R de modo que
Z
J=

t0

uT (t)Ru(t)dt

Normalmente R es diagonal (si es definida positiva todos sus elementos son positivos). Los distintos valores de diag(R) representan el peso relativo que se asigna
a cada variable de control en el gasto de energa.

Introduccion a la optimizacion de sistemas dinamicos

339

Problema del mnimo combustible


La tasa de consumo de combustible suele ser proporcional al empuje por lo que
se puede escribir
Z
T

J=

| u(t) | dt

(siendo u la tasa de flujo del combustible - empuje del cohete), (o del vehculo
espacial que se esta maniobrando). Si existen varios propulsores
J=

Z T
0

(k1 | u(t) | +k2 | u(t) | +... + km | u(t) |)dt

siendo ki factores de peso (ponderacion) no negativos.


Problema del regulador del estado
Se trata de transferir un sistema desde un estado inicial x0 a un estado deseado
xf (normalmente el estado de equilibrio del sistema) con un valor mnimo del
valor cuadratico medio del error.
Con relacion a xf el valor de x(t) xf se puede considerar como el error
instantaneo del sistema.
Si se cambia de coordenadas, de modo que xf = 0, entonces x(t) es el mismo
error.
Z T
J=
xT (t)x(t)dt
0

En general
J=

Z T
0

xT (t)Qx(t)dt

siendo Q una matriz real, simetrica, semidefinida positiva y constante. La forma


mas simple de Q es
Q = diag [qi ]
en donde qi representa el peso que se asigna a la componente xi del vector de
estados a la hora de evaluar su contribucion a J. Cuanto mayor es qi mayor es el
esfuerzo de control dedicado a regular (llevar a cero) a xi .
Para minimizar la desviacion del estado final x(T ) del sistema del estado
deseado xf = 0, se adopta el ndice
J = xT (T )Hx(T )

Introduccion a la optimizacion de sistemas dinamicos

340

siendo H real, simetrica, semidefinida positiva y constante.


El ndice conjunto es
J = xT (T )Hx(T ) +

Z T
0

xT (t)Qx(t)dt

que puede resultar a


un insatisfactorio. Es mas realista a
nadir un termino que
penalice la accion de control u(t). Se tiene entonces
T

J = x (T )Hx(T ) +

Z T
0

[xT (t)Qx(t) + uT (t)Ru(t)]dt

Problema del regulador del estado en tiempo infinito

J=

Z
0

[xT (t)Qx(t) + uT (t)Ru(t)]dt

La restriccion terminal en este caso no es necesaria.


En el problema del regulador del estado se trata de mantener el estado peque
no
f
(lo mas proximo posible a x = 0).

Problema del regulador de la salida


Supuesta ajustada la salida del sistema a un valor de referencia, en una escala,
en que sea yref = 0, se trata de mantener y(t) lo mas proxima posible a cero.
T

J = y (T )Hy(T ) +

Z T
0

[y T (t)Qy(t) + uT (t)Ru(t)]dt

Problema del seguimiento (tracking)


Se trata de mantener el estado del sistema x(t) lo mas cercano posible al estado
deseado r(t) en [0, T ].
T

J = e (T )He(T ) +
siendo e = x r.

Z T
0

[eT (t)Qe(t) + uT (t)Ru(t)]dt

Introduccion a la optimizacion de sistemas dinamicos

c1

341

c2
q1

q2

h
V, c
q

Figura 14.3: Diagrama de un deposito mezclador.

14.3.2

Ejemplo de ndice de funcionamiento cuadr


atico

Considerese un mezclador de fluidos como el que se muestra en la figura 14.3,


en la que se tiene un esquema elemental de un proceso de mezcla de dos fluidos
en un deposito. Este deposito de volumen V y altura h esta alimentado por
los caudales q1 y q2 , cada uno de los cuales con concentracion c1 y c2 de un
determinado producto qumico. La concentracion de este producto en el deposito
es c. El deposito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizacion de las concentraciones de los
caudales de entrada se produce instantaneamente gracias a la accion de unas
palas batidoras. Se supone, as mismo, que la densidad es constante en el interior
del deposito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
= q1 (t) + q2 (t) q(t)
dt

(14.5)

d[c(t)v(t)]
= c1 (t)q1 (t) + c2 (t)q2 (t) c(t)q(t)
dt

(14.6)

El flujo de salida del deposito viene dado por


q

q(t) = k h(t) = k

v(t)
a

(14.7)

En donde k es una constante y a es el area del deposito. De modo que v = ha.

Introduccion a la optimizacion de sistemas dinamicos

342

Supongase un estado estacionario de funcionamiento en el que se produce un


equilibrio entre las entradas y salidas del deposito, para los siguientes valores de
los flujos de entrada y salida, as como del volumen en el deposito v0 y de su
concentracion c0 .
q1 (0) = q10 , q2 (0) = q20 , q(0) = q0 , v(0) = v0 , c(0) = c0
Convienen observar que las concentraciones de entrada c1 y c2 se establecen en
la etapa anterior del proceso. En estas condiciones de regimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q10 + q20 q0
0 = c1 q10 + c2 q20 c0 q0
r
v0
q0 = k
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones suficientemente peque
nas como para justificar la linealizacion.
Conviene observar que el proceso que se esta considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuacion (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresion
(14.7) liga q con v (o con h) mediante una relacion no lineal (la raz cuadrada).
Las variaciones de las distintas variables con respecto a los valores tomados
en regimen estacionario se denotaran mediante un tilde sobre la variable correspondiente. Es decir,
q(t) = q(t) q0
representa la variacion del caudal q respecto al valor estacionario q0 . Analogamente
se definen el resto de las variables
v(t) = v(t) v0
q1 (t) = q10 + q1 (t)
q2 (t) = q20 + q2 (t)
c(t) = c0 + c(t)
Si las variaciones son suficientemente peque
nas, entonces la expresion no lineal (14.7) se puede linealizar en torno al valor correspondiente por regimen estacionario, de acuerdo con

Introduccion a la optimizacion de sistemas dinamicos

343

k v(t)
q(t) q0 =
|v=v0 (v(t) v0 )
a v(t)
Es decir

k v0
q(t) =
v(t)
(14.8)
2v0 a
De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las definiciones de las variaciones v(t), q1 (t), q2 (t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la definicion del regimen estacionario y
(14.8) se tiene que
d
v (t)
1 q0
v(t)
= q1 (t) + q2 (t)
dt
2 v0
d
c(t)
d
v (t)
1 c 0 q0
v0 + c0
= c1 q1 (t) + c2 q2 (t)
v(t) q0 c(t)
dt
dt
2 v0
v0
=
q0
Si se escribe
x1
x2
u1
u2
y1
y2

=
=
=
=
=
=

v
c
q1
q2
q
c

v0
q0
se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:
=

x 1
x 2

1

2
=

1
0
x + c1 c0
1

v0

1
c2 c0 u
v0

Sistema dinamico lineal que describe el comportamiento del sistema perturbado


en torno al regimen estacionario.

Introduccion a la optimizacion de sistemas dinamicos

344

Supongase ahora que se trata de establecer un criterio cuadratico como ndice


de funcionamiento de este sistema. Sean las condiciones estacionarias para el
deposito
v0 = 1500 litros
c0 = 15 gr-mol/litro
y los correspondientes flujos de entrada son
q10 = 10 litros/seg.
q20 = 20 litros/seg.
Se trata de construir un ndice de la forma
J=

Z
0

(xT Qx + uT Ru)dt

en el que las matrices Q y R son de la forma

Q=

q1 0
0 q2

R=

r1 0
0 r2

Supongase que se produce una variacion del 1% en torno al valor estacionario,


lo que en volumen corresponde a 15 litros, mientras que 1% de variacion en
concentracion corresponde a 0,15. Supongase que 1% de cambio en concentracion
se penaliza de la misma manera que un 1% de cambio en volumen. En tal caso
se tendra que
q1 (15)2 q2 (0.15)2
o lo que es lo mismo

q2
100

q1
0.01

Por tanto se tiene que

Q=

0.01 0
0 100

Se procede de forma similar con R. A un 1corresponde 0.1 litros/segundo y un


10,2 litros/segundos. Si ambos terminos deben contribuir por igual al ndice de
funcionamiento se tendra
r2 (0.2)2 r1 (0.1)2
Es decir

0.5
r2

r1
2

y por tanto

R=

2 0
0 0.5

Introduccion a la optimizacion de sistemas dinamicos

14.4

345

Problema general del control


optimo

Resumiendo lo anterior se puede decir que el problema del control optimo o de


optimizacion dinamica, consiste en:
un sistema dinamico descrito por una ecuacion diferencial de la forma,
x = f (x, u)

(14.9)

en donde x es el vector de estado de dimension n, y u es el vector de


control de dimension m, cuyos valores en todo instante deben tomarse de
un conjunto cerrado u(t) U .
unas condiciones iniciales y finales que normalmente son las siguientes:
el instante inicial 0 y el estado inicial x(0) estan fijados.
el estado y el instante final estan definidos por un par (x(T ), T ) de la
trayectoria del sistema, que pertenezca a un conjunto dado S X T .
un criterio de funcionamiento dado por un funcional de la forma
J=

Z T
0

L(x, u, t)dt + S(x(T ), T )

(14.10)

El problema de optimizacion dinamica consiste en buscar la se


nal u(t), t [0, T ]
que minimice a J de entre todas las se
nales posibles que transfieran el sistema de
(0, 0) a (x(T ), T ).
Observese que en el criterio de funcionamiento de la expresion (14.10) aparece
un termino adicional que no estaba en la expresion (14.3). En los criterios de
funcionamiento del problema del regulador del estado, del regulador de la salida
y del seguimiento, que se han visto en la seccion anterior, aparecan terminos de
esta naturaleza. En el apartado 15.1.3 volveremos sobre este termino.
Para el problema as planteado pueden existir, en principio, dos soluciones de
distinta naturaleza:
u = u (t): control en bucle abierto.
u = u (x): control en bucle cerrado (ley de control).

Introduccion a la optimizacion de sistemas dinamicos

346

En el primer caso se tiene una se


nal u (t) que se aplica al sistema en el
intervalo [0, T ]. La aplicacion de esta se
nal se hace sin requerir informacion sobre
la evolucion del estado (en general, del sistema), por lo que se trata de una
se
nal de control en bucle abierto. Por el contrario, en el segundo caso se tiene
una solucion al problema del control optimo en la que la se
nal de control u es
funcion, en cada instante de tiempo, del estado del sistema. Se trata, por tanto,
de un control por realimentacion; es decir, en bucle cerrado.
La solucion del problema de control mas interesante es la segunda, por incluir
la estructura de realimentacion, con las conocidas ventajas que esta estructura
comporta. Sin embargo, como veremos luego, este segundo tipo de soluciones
es considerablemente mas difcil de alcanzar que el primero. De hecho, solo
existe una solucion general para el problema de control en bucle cerrado para
sistemas lineales con criterio cuadratico. Sin embargo, si existe una amplia clase
de problemas que admiten solucion en bucle abierto. Una posible solucion en la
practica es determinar el control en bucle abierto, y linealizar en torno a esta
trayectoria optima, aplicando entonces el control en bucle cerrado.
Para determinar el control en bucle abierto se emplean el calculo de variaciones y el principio del mnimo de Pontriagin. Para la determinacion de la ley
de control optima se aplica la programacion dinamica y las variantes derivadas
de este metodo. Por otra parte, el calculo de variaciones permite la solucion del
problema del control optimo cuando no existen restricciones, mientras que la programacion dinamica y el principio del mnimo de Pontriagin permiten incorporar
restricciones en U.

14.5

C
alculo de variaciones

El calculo de variaciones es la rama de las matematicas que se ocupa de determinar las trayectorias que minimizan o maximizan un funcional. Conviene que
dediquemos alg
un espacio al concepto de funcional.

14.5.1

Funcionales y sus variaciones

Sea X una clase de funciones x(t) definidas en el intervalo [0,t]. Si a toda funcion
x(t) X se asocia, de acuerdo con una regla, un n
umero J se dice que en la clase
X esta definido el funcional J y se escribe J = J[x(t)]. La clase X se denomina
campo de definicion del funcional. Para nosotros, la clase de funciones X sera la

Introduccion a la optimizacion de sistemas dinamicos

347

clase de se
nales x(t) definidas en el intervalo [0, T ]. En la figura 14.5 se ilustra
como a cada se
nal x(t) definida en [0, T ] corresponde un valor de J, que es un
n
umero real.

Ejemplo
Sea X = C[0, T ] el conjunto de todas las funciones contnua x(t) definidas en el
intervalo [0, 1] y sea el funcional
J[x(t)] =

Z 1
0

x(t)dt

Es decir J = J[x(t)] es un funcional de x(t), ya que a toda funcion x(t) C[0, T ]


le corresponde un valor determinado de J = J[x(t)]. Por ejemplo, si x(t) = 1 se
tiene
Z 1
J[x(t)] =
dt = 1
0

o si x(t) = e , se tiene
J[x(t)] =

Z 1
0

ex dt = e 1

Ejemplo
Sea X = C1 [a, b] la clase de funciones x(t) que tiene derivada contnua x en el
intervalo [a, b]. Entonces la funcional
J[x(t)] =

Z b
a

1 + x 2 dt

tiene una interpretacion geometrica, ya que representa la longitud del arco de la


curva x = x(t) cuyos extremos son los puntos A (a, x(a)) y B (b, x(b)) .
2
El concepto de funcional tiene un gran interes ya que permite asociar a se
nales,
que representan trayectorias y por tanto comportamientos, valores numericos que
sirven para medir determinadas propiedades de esas se
nales.
El funcional J[x(t)] se dice que es lineal si satisface las condiciones:

Introduccion a la optimizacion de sistemas dinamicos

348

x
M (1, 1)

Figura 14.4: se
nales x(t) = t y x1 (t) = t2 .
1. J[cx(t)] = cJ[x(t)],
2. J[x1 (t) + x2 (t)] = J[x1 (t)] + J[x2 (t)],
en donde c es una constante cualquiera y x1 (t) X y x2 (t) X. Por ejemplo, el
funcional
Z b
J[x(t)] = (x + x)dt
a

es lineal.
Interesa introducir conceptos que permitan formalizar la proximidad entre
se
nales. Se dice que las se
nales x(t) y x1 (t) definidas en el intervalo [a, b] son
cercanas con proximidad de orden nulo si el valor de |x(t) x1 (t)|, que mide la
distancia entre ellas para cada valor de t, es peque
no en todo el intervalo [a, b].
Desde un punto de vista geometrico esto significa que las dos se
nales toman
valores cercanos en cada instante de tiempo del intervalo considerado.
Analogamente, se define la distancia entre dos se
nales x(t) y x1 (t) (a t b)
como el n
umero no negativo igual al maximo del modulo |x1 (t) x(t)|; es decir,
= [x1 (t), x(t)] = max |x1 (t) x(t)|
atb

Ejemplo
Determinar la distancia entre las se
nales x(t) = t y x1 (t) = t2 (figura 14.4). De
acuerdo con la definicion
= max |t2 t|
0t1

= max (t t2 )
0t1

Introduccion a la optimizacion de sistemas dinamicos

349

Por tanto, se tiene que determinar el maximo de la funcion x = t t2 , que se


tiene para t = 1/2, de modo que = 1/4.
2
Por otra parte, se dice que las se
nales x(t) y x1 (t) definidas en el mismo
intervalo, son cercanas con proximidad de primer orden si las magnitudes |x(t)
x1 (t)| y |x(t)

x 1 (t)| son peque


nas en el intervalo considerado. Geometricamente,
esto significa que tanto los valores tomados por las dos se
nales, como los de sus
tangentes (sus derivadas), son cercanos para todo instante de tiempo.
Por u
ltimo, las dos se
nales consideradas se dice que son cercanas con proximidad de orden k sin son peque
nos los valores tomados por |x(t) x1 (t)|, |x(t)

k
k
x 1 (t)|,..., |x (t) x1 (t)|. Basado en ello, se define la distancia de orden n entre
dos se
nales x = x(t) y x = x1 (t) como el mayor de los maximos de las expresiones
x 1 (t)| ,..., |xn (t) xn1 (t)|, es decir
|x(t) x1 (t)|, |x(t)
n = n [x1 (t), x(t)] = max max |xk1 (t) xk (t)|
0kn atb

Se denomina variaci
on o incremento x(t) del argumento x(t) de un funcional
J[x(t)] a la diferencia entre dos se
nales x(t) y x0 (t) pertenecientes a la clase X
de funciones considerada; es decir
x(t) = x(t) x0 (t)
Se define el entorno de orden n de una se
nal x = x1 (t) como el conjunto de
las se
nales x = x(t) cuyas distancias de orden n a la se
nal x1 (t) son menores que
; es decir
n = n [x1 (t), x(t)] <
Definido el concepto de entorno de una se
nal, es posible introducir el de continuidad de un funcional. Un funcional J[x(t)] definida en la clase de funciones
X se llama contnua en x = x0 (t) si para todo > 0 existe > 0 tal que la desigualdad J[x(t)] J[x0 (t)] < se satisface para todas las se
nales que satisfacen
n = n [x(t), x0 (t)] <
Sea J[x(t)] un funcional, se define el incremento de J[x(t)] como
J = J[x(t)] = J[x(t) + x(t)] J[x(t)]
siendo
x(t) = x(t) x(t) x(t) X, x(t) X

Introduccion a la optimizacion de sistemas dinamicos

350

supongamos que J puede escribirse de la forma


J = G[x(t), x(t)] + H[x(t) + x(t)]||x||

(14.11)

en donde G[x(t), x(t)] es un funcional lineal con relacion a x y H[x(t)+x(t)]


0 cuando ||x|| 0. En tal caso, la parte del incremento lineal con relacion a x,
es decir G[x, x] se llama variaci
on del funcional y se representa por J. En ese
caso se dice que el funcional J[x(t)] es diferenciable para la se
nal x(t).

Ejemplo
Sea el funcional
J[x(t)] =

Z b

xdt

su incremento vendra dado por


J = J[x(t) + x(t)] J[x(t)]
=
=

Z b

a
Z b
a

(x + x)dt

Z b
a

xdt

xdt

Es decir, J = ab xdt. Esta expresion es, a su vez, un funcional lineal respecto


a x. R Por tanto, el funcional es diferenciable para todo x(t) y su variacion es
J = ab xdt.
2

Ejemplo
Sea el funcional
J[x(t)] =

Z b
a

x2 dt

Se tiene que
J =
=
=

Z b
a

Z b
a

(x + x) dt
2xxdt +

Z b
a

Z b
a

x2 dt

(x)2 dt

Introduccion a la optimizacion de sistemas dinamicos

351

En la expresion anterior, la primera integral representa el funcional lineal respecto


a x, mientras la segunda integral conduce a
Z b
a

(x) dt =

Z b
a

|x|2 dt

( max |x|)2

Z b

atb

dt

= (b a)||x||2
= [(b a)||x||]||x||
y para ||x|| 0, se tiene que
(b a)||x|| 0
Es decir, el incremento J del funcional es la suma de G[x, x] y un termino de
segundo orden con relacion a ||x||. Recordando la expresion (14.11) se tiene que
el funcional considerado es diferenciable para todo x(t) y su variacion es
J = 2

Z b
a

xxdt

2
Un funcional J[x(t)] se dice que alcanza su m
aximo para la se
nal x = x0 (t)
si los valores que toma el funcional para cualquier se
nal proxima a x0 (t) no son
mayores que J[x0 (t)]; es decir si
J = J[x(t)] J[x0 (t)] 0
Si J 0 x(t) 6= x0 (t) y J = 0 solo para x = x0 (t), se dice que se alcanza
un m
aximo estricto para x = x0 (t). Para todas las se
nales proximas a x = x0 (t)
se tiene que J 0.

Ejemplo
Sea el funcional
J[x(t)] =

Z 1
0

(x2 + t2 )dt

Es facil ver que se alcanza un mnimo estricto para la se


nal x(t) 0. En efecto,
se tiene que
J = J[x(t)] J[0] =

Z 1
0

(x2 + t2 )dt

Z 1
0

t2 dt =

Z 1
0

x2 dt 0

Introduccion a la optimizacion de sistemas dinamicos

352

Por lo que el signo de igualdad se da solo para x(t) 0.


2
Un ejemplo de funcional que emplearemos en la seccion siguiente lo suministra
la expresion
Z
J=

L(x, x,
t)dt

J
x
J(x)

Figura 14.5: Un funcional J asigna a cada se


nal x(t) un n
umero real.
Las tecnicas de estudio de maximos y mnimos de funciones, pueden extenderse al estudio de funcionales. En tal caso, se trata de determinar una se
nal
x(t) tal que el valor (un n
umero real) tomado por el funcional, sea mnimo (o
maximo).
Para el estudio de la optimizacion de funcionales se emplea el calculo de
variaciones. Consiste este en el estudio de como vara un funcional cuando vara
x(t). Una variacion de x(t), por ejemplo,
x(t) = x1 (t) x0 (t)
se interpreta graficamente tal como se hace en la figura 14.6. La variacion de J
correspondiente sera
J(x, x) = J(x1 ) J(x0 ) = J(x0 + x) J(x0 )
En donde J(x, x) representa el incremento de J debido a la variacion x(t)
entorno a x(t).

14.5.2

Ecuaciones de Euler

Las ecuaciones de Euler permiten resolver el problema de optimizacion funcional


siguiente:

Introduccion a la optimizacion de sistemas dinamicos

353

xo (t)

x1 (t)
x (t)
T
Figura 14.6: Ilustracion de la variacion x(t) de una funcion x(t).
Problema
Determinar los valores de x(t), en el periodo [0, T ] que minimicen (o maximicen) el funcional
J=

Z T
0

L(x, x,
t)dt

estando sujetos a las condiciones de contorno fijas


x(0) = a

x(T ) = b

Para resolver el anterior problema se procede a estudiar la variacion de J, e


igualarla a cero. Supongase que el mnimo de J se produce para la trayectoria
x0 (t). Si esta trayectoria x0 (t) se somete a una variacion x se tendra la nueva
trayectoria
x(t) = x0 (t) + x(t)
esta nueva se
nal se supone para satisfacer las condiciones del problema, que
cumple las restricciones de contorno, es decir
x(0) = x(T ) = 0
La variacion total de J sera
J(x, x) =

Z T
0

[L(x + x, x + x,
t) L(x, x,
t)]dt

Si se desarrolla la funcion L(x, x,


t) en serie de Taylor en torno a x(t) y x(t),

se
tendra

L(x + x, x + x,
t) L(x, x,
t) =

L
L
x +
x + R(x, x,
x, x,
t)
x
x

Introduccion a la optimizacion de sistemas dinamicos


luego
J(x, x) =

Z T
L
0

354

Z T
L
x +
x dt +
R(x, x,
x, x,
t)dt
x
x
0

Esta expresion tiene la misma forma que (14.11). En efecto, el primer termino
del segundo miembro es lineal en x, x.
El segundo, esta formado por terminos
de orden superior al primero. Por tanto, se tendra que la variacion de primer
orden de J vendra dada por
Z T"
L

J(x, x) =

L
x +
x dt
x
x

(14.12)

Esta variacion representa la parte lineal del incremento J. Integrando por


partes el segundo miembro de (14.12), se obtiene
J(x, x) =

Z T"
L

d L
L

xdt +
x |T0
x dt x
x

y puesto que de momento estamos considerando condiciones de contorno fijas, se


tendraa que x(0) = x(T ) = 0, por lo que
J(x, x) =

Z T"
L
0

d L

xdt
x dt x

(14.13)

Esta expresion da la variacion de primer orden en J, cuando la se


nal x(t) sufre

una variacion x(t). Si existe un valor de x (t) tal que para este valor de x(t) el
funcional J toma un valor mnimo (o maximo), entonces sucedera que
J(x, x) = 0
este resultado es analogo a la condicion necesaria para la minimizacion (o maximizacion) de funciones ordinarias y se conoce como la condici
on necesaria fundamental del calculo de variaciones. Llevando este resultado a (14.13) se tiene la
variacion de primer orden de J. Es decir,
Z T"
L
0

d L

xdt = 0
x dt x

Puesto que la anterior expresion debe satisfacerse para cualquier variacion x(t)
de x(t), ello solo sera posible si
d L
L

=0
x dt x
La solucion de esta ecuacion diferencial en x es x (t). Esta ecuacion recibe la
denominacion de ecuaci
on de Euler.

Introduccion a la optimizacion de sistemas dinamicos

355

Como hemos recordado en la seccion anterior, en el estudio de los maximos


y los mnimos de una funcion ordinaria L(u) se tiene una ecuacion algebrica
dL/du = 0, cuya solucion en u permite determinar el valor de u que minimiza (o
maximiza) a esta funcion. La ecuacion de Euler juega el mismo papel que esta
ecuacion cuando el problema de optimizacion es funcional. En tal caso, no se
trata de determinar el valor de una variable, sino el conjunto de valores tomados
por una se
nal en un determinado intervalo, y en lugar de una simple ecuacion
algebrica, se tiene una ecuacion diferencial.
La ecuacion de Euler es una condicion necesaria pero no suficiente para determinar un mnimo. Las condiciones de mnimo o maximo se determinan por el
estudio de las variaciones segundas. Este estudio es relativamente complejo y no
se realizara aqu.
Debe observarse que la ecuacion de Euler es una ecuacion de segundo orden y
por lo tanto en su solucion aparecen dos constantes arbitrarias. Para determinar
estas constantes se requieren dos ecuaciones adicionales. Estas ecuaciones vienen
dadas precisamente por las condiciones de contorno.
x(0) = a

x(T ) = b

A partir de estas dos ecuaciones se pueden determinar las dos constantes que
aparecen en la solucion de la ecuacion de Euler.
En el desarrollo anterior se ha considerado que x era un escalar. Los resultados
obtenidos se generalizan con toda facilidad para el caso en que x sea un conjunto
de n se
nales. El funcional a optimizar es de la forma
J(x) =

Z T
0

L(x, x,
t)dt

(14.14)

en donde x es un vector de dimension n. Las ecuaciones de Euler toman la forma


"

L
d L

=0
xi dt xi

para i = 1, 2, ..., n.
Observese que se tiene un conjunto de n ecuaciones diferenciales. Su solucion
comportara 2n constantes, para cuya determinacion se necesitaran 2n ecuaciones,
que vendran dadas por las condiciones de contorno.
En el caso de funcionales que implican n funciones independientes se tienen
n ecuaciones de Euler; cada ecuacion es, en general, una ecuacion diferencial

Introduccion a la optimizacion de sistemas dinamicos

356

ordinaria, de segundo orden y no lineal, con condiciones de contorno separadas,


que suele ser difcil de resolver. Esta situacion se complica ademas por el hecho
de que las n ecuaciones de Euler son simultaneas. Se emplean normalmente
soluciones numericas.
Sin embargo, la integracion numerica presenta a su vez problemas ya que para
integrar numericamente se requiere tener la condiciones de contorno definidas para
uno de los extremos de integracion (las condiciones iniciales o las finales). Sin
embargo, las ecuaciones diferenciales de Euler presentan condiciones de contorno
iniciales y finales a la vez. Se tienen entonces problemas de contorno con dos
extremos cuya resolucion numerica requiere un tratamiento especfico.

Ejemplo
Determinar las trayectorias optimas que minimicen los funcionales siguientes:
a) sea el funcional
J=

Z b
a

(2x1 x2 2x21 + x1 2 x2 2 )dt

es decir
L = 2x1 x2 2x21 + x1 2 x2 2
se tiene,
L
x1
L
x2
L
x1
L
x2

= 2x2 4x1
= 2x1
= 2x1
= 2x2

Las ecuaciones de Euler en este caso dan lugar al siguiente sistema de ecuaciones
diferenciales:
d2 x1
2x2 4x1 2 2 = 0
dt
2
d x2
2x1 + 2 2 = 0
dt

Introduccion a la optimizacion de sistemas dinamicos

357

cuya resolucion conduce a


d4 x2
d2 x2
+
2
+ x2 = 0
dt4
dt2
cuya ecuacion caracterstica es
r4 + 2r2 + 1 = 0
r = j(dobles)
por lo tanto
x2 (t) = c1 tejt + c2 ejt + c3 tejt + c4 ejt
por otra parte,

x1 (t) =

d2 x2
dt2

Ejemplo: Distancia mnima entre dos puntos


Vamos a aplicar las ecuaciones de Euler para demostrar un resultado bien conocido: que la distancia mas corta entre dos puntos es la lnea recta. Supongamos
una curva x(t) que une los puntos x(a) = A y x(b) = B. El parametro t es un
parametro arbitrario que sirve para especificar la familia de curva que une los
puntos del plano (a, A) y (b, B), tal como se indica en la figura 14.7.
La longitud de una curva particular x(t) viene dada por
J=

Z b
a

1 + x 2 dt

(14.15)

La determinacion de la curva x(y) que minimice la distancia entre (a, A) y (b, B)


se reduce a determinar la curva x (t) que minimice (14.15). Ese problema se
puede resolver mediante la ecuaciones de Euler. Se tiene

L(x, x)
= 1 + x 2

Introduccion a la optimizacion de sistemas dinamicos

358

x
B
A

Figura 14.7: Distanciamnima entre dos puntos


por lo que

L
=0
x
L
x
=
x
1 + x 2
por lo tanto, la ecuacion de Euler, en este caso, se reduce a:
d
x

=0
dt 1 + x 2
ecuacion diferencial que, a su vez, se reduce a
d2 x
=0
dt2
cuya integracion conduce a
x (t) = c1 t + c2
que, aplicando las condiciones de contorno, se convierte en
x(t) =

(A B)t + (aB bA)


ab

con lo que queda demostrado lo que ya sabamos: que la distancia mnima entre
dos puntos es una recta.

Restricciones o ligaduras
Supongase que existen unas determinadas ligaduras (o restricciones) en las trayectorias posibles de x(t). Es decir, de todas las trayectorias posibles que unan el

Introduccion a la optimizacion de sistemas dinamicos

359

estado inicial con el estado final, solo son admisibles aquellas que, ademas, satisfagan una ecuacion de la forma
g(x, x,
t) = 0

(14.16)

En este caso se tiene un problema de optimizacion con restricciones. En el estudio de los maximos y mnimos de funciones ordinarias se aplicaba el metodo de
Lagrange para resolver el problema. En el estudio de la optimizacion funcional, se
aplica igualmente una generalizacion del metodo de Lagrange. La demostracion
de esta generalizacion no se hara aqu, pero sin embargo s se enunciara el metodo.
Supongase que se trata de optimizar un funcional tal como el de la expresion
(14.14), en donde x(t) esta sometido a las restricciones dadas por la expresion
(14.16). Entonces se puede formar el funcional (funcional aumentado)
J0 =

Z T
0

[L(x, x)
+ g(x, x)]
dt

en donde el multiplicador de Lagrange (t) es una funcion del tiempo. El problema queda reducido a optimizar el nuevo funcional J 0 con relacion a x y a
.
El metodo se generaliza facilmente para el caso en que x sea un vector, y el
n
umero de restricciones sea un n
umero finito m.

14.5.3

Estado final variable

En el apartado anterior se ha considerado el caso de la optimizacion funcional


cuando el estado inicial y el estado final estaban perfectamente determinados.
En esta seccion se va a estudiar el caso en el que el estado final no esta completamente determinado. Por ejemplo, se va a estudiar el problema de determinar
las trayectorias que une un punto a una curva tal como se representa en la figura
14.8.
Es decir, se trata de determinar x (t) tal que minimice el funcional
J=

Z T
0

L(x, x,
t)dt

de manera que x(0) tome un valor previamente determinado, y x(t) sea tal que se
encuentre sobre una determinada trayectoria. Es decir, ni x(T ) ni T estan fijados
de antemano, sino que ambos estan ligados por una determinada expresion.

Introduccion a la optimizacion de sistemas dinamicos

360

x(0)

Figura 14.8: Conjunto de trayectorias que se inician en el estado x(0) y que


finalizan sobre una curva.
Es obvio que la trayectoria optima x (t) debe satisfacer las ecuaciones de
Euler. En efecto, considerese el problema completamente resuelto y supongase
determinado el estado final alcanzado por dicha trayectoria optima x (T ). Se
puede entonces considerar el problema como un problema con el estado final fijo
al que hay que aplicar las ecuaciones de Euler. Es decir, si x (t) minimiza a J
en el caso de estado final variable, logicamente minimizara a J para el caso mas
restringido de estado final fijo.
Por lo tanto, el problema de determinar x (t) para el caso de estado final
variable, conduce a la resolucion de las ecuaciones diferenciales de Euler. Sin embargo, el problema se plantea a la hora de establecer las ecuaciones auxiliares que
permiten determinar las constantes que aparecen en la resolucion de la ecuacion
de Euler. Al estudio de este problema se va a dedicar el resto de la seccion.

x (T )
x(T
f )T

xf

T + T

Figura 14.9: Trayectoria x(t) y su variacion en el caso de extremo final libre.

Introduccion a la optimizacion de sistemas dinamicos

361

En la figura 14.9 se representa una trayectoria x(t), y una variacion de la


misma x(t) + x(t), cuyo punto inicial es com
un con la primera, pero cuyo punto
final no coincide. La variacion de J correspondiente a estas dos trayectorias sera
la siguiente
J = J(x + x) J(x)
=

Z T +T
0

L(x + x, x + x,
t)dt

Z T
0

L(x, x,
t)dt

lo cual puede reescribirse como sigue


J =

Z T +T
T

L(x+x, x+

x,
t)dt+

Z T
0

[L(x+x, x+

x,
t)L(x, x,
t)]dt (14.17)

Se supone que T es suficientemente peque


no, de manera que se pueda aplicar el
teorema del valor medio a la primera de las integrales anteriores, con lo que se
obtiene
Z T +T
L(x + x, x + x,
t)dt
t) |T T
(14.18)
= L(x, x,
T

Por otra parte, el segundo termino de la expresion (14.17), despreciando terminos


de orden superior al primero (analogamente a como se hizo para deducir las
ecuaciones de Euler), puede escribirse:
Z T
0

#
Z T"
L
L
x +
x dt
[L(x + x, x + x,
t) L(x, x,
t)]dt
=
0

En donde el signo
= denota la aproximacion de primer orden. Integrando por
partes el segundo termino del segundo miembro de la anterior expresion, se tiene,
Z T
0

#
Z T"
L
d
L
L
[L(x + x, x + x,
t) L(x, x,
t)]dt

xdt +
x |T0
=
0

dt x

Si x(t) es una trayectoria optima, entonces se satisfacera la ecuacion de Euler, y


por lo tanto, el primer termino del segundo miembro de la anterior expresion, sera
identicamente nulo. En efecto, sea x (t) una trayectoria optima, del caso en el
que T y x(T ) no estan fijados. Se tendra que x(T ) = x (T ). Por tanto, se puede
plantear el problema de control optimo con condiciones finales fijas (x(T ), T )
cuya solucion satisfacera las ecuaciones de Euler. Es decir, la trayectoria x (t) es
optima para un problema de control optimo con condiciones de contorno fijas, y,
en consecuencia satisfacera las ecuaciones de Euler.
Por tanto, se podra escribir:
Z T
0

L
[L(x + x, x + x,
t) L(x, x,
t)]dt
x |T0
=
x

(14.19)

Introduccion a la optimizacion de sistemas dinamicos

362

Habida cuenta de las expresiones (14.18) y (14.19) modificadas, se tendra que la


expresion (14.17) se puede escribir
L
J
x |T0 +L(x, x,
t) |T T
=
x

(14.20)

Expresion que representa la variacion de J cuando se perturba una trayectoria


optima y el extremo final no esta fijado. Observese que puesto que x(0) = 0
sucede que J depende exclusivamente de lo que sucede en el extremo final en
el que se produce la variacion. En este extremo, con ayuda de la figura 14.9 se
tiene,
xf + xf = x(T + T ) + x(T + T )
= x(T ) + x(T
)T + x(T ) + ...
f

)T + x(T )
= x + x(T
o sea,
x(T ) = xf x(T
)T

(14.21)

lo que llevado a (14.20) conduce a


J =

L
|T [xf x(T
)T ] + L(x, x,
t) |T T
x

y puesto que J = 0, se tiene


"

L
L
t) x
|T T = 0
|T xf + L(x, x,
x
x

(14.22)

Esta expresion recibe la denominacion de condici


on de transversalidad, y permite establecer una ecuacion algebrica adicional para la determinacion de las
constantes en la solucion de la ecuacion de Euler.
En la aplicacion practica de la condicion de transversalidad se pueden dar tres
casos.
1. Supongase que el instante final T esta fijado de antemano, pero no as el
estado alcanzado. En tal caso, el estado final debe estar situado en una
recta vertical tal como la de la figura 14.10. Analticamente se tendra que
T = 0, y la expresion (14.22) se convierte en
L
|T = 0
x

Introduccion a la optimizacion de sistemas dinamicos

363

x(0)
0

Figura 14.10: Trayectorias con el tiempo final T fijo y el estado final x(T ) libre.

x(T )
x(0)

Figura 14.11: Trayectorias con el estado final x(T ) fijo y el tiempo final T libre.

Introduccion a la optimizacion de sistemas dinamicos

364

2. Si el estado final esta determinado, pero no el instante en el que se alcanza,


el punto final debera estar situado en una lnea horizontal tal como la de
la figura 14.11. En tal caso se tendra que xf = 0, con lo que la expresion
(14.22) se convierte en:
"

L
L(x, x,
t) x
|T = 0
x

3. Si el estado final y el instante final estan ligados a una expresion analtica


de la forma
x(t) |T = y(t) |T
se tendra que xf = y(T
)T (ver figura 14.12), con lo que la ecuacion
(14.22) se convierte en
"

L
L(x, x,
t) + (y x)

|T T = 0
x

y 0 (T )
y(t)

x(0)

T + T

Figura 14.12: Trayectorias con el estado final definido sobre la curva y(t).

Introduccion a la optimizacion de sistemas dinamicos


Cuadro resumen de condiciones
de contorno en calculo variacional.

Descripcion
Condiciones
del problema de contorno

Notas

1. T, x(T )
fijos

x (t0 ) = x0
x (T ) = xf

2n condiciones para
2n constantes
de integracion

2. T fijo y

x (t0 ) = x0
L
=0
x T

2n condiciones para
2n constantes

x (t0 ) = x0
x" (T ) = xf

2n + 1 condiciones para
2n constantes

x(T ) libre

3. T libre y
x(T ) fijo

L
L(x, x)
x
x

4. T y x(T )
libres, pero
ligadas por
x(T ) = (T )

x (t0 ) = x0
x" (T ) = (T )

de integracion

=0

de integracion y T

L
L(x, x)
+ (y x)

=0

2n + 1 condiciones para
2n constantes
de integracion y T .

365

Introduccion a la optimizacion de sistemas dinamicos

366

Ejemplo 3
Considerese una variante del ejemplo 2, en la que se trata de determinar la trayectoria mnima entre el origen y la recta y(t) = 2 t (figura 14.13). Del ejemplo
y

2
t

Figura 14.13: Trayectoria mnima entre el origen y la recta y(t) = 2 t.


2 se sabe que las soluciones del problema de Euler viene dadas por la familia de
rectas:
x = c1 t + c2
Para la determinacion de las constantes c1 y c2 se recurre a las condiciones
de contorno 4 del cuadro adjunto. Puesto que x(0) = 0, se tiene que c2 = 0. Por
otra parte, la condicion de contorno final conduce a:
q

1+

x (T )2

+q

x (T )

1 + x (T )2

[y(T
) x (T )] = 0

Puesto que x (T ) = c1 e y(T


) = 1, se tiene
q

c1

1 + c21 q

1 + c21

[1 + c1 ] = 0

De donde se obtiene
c1 = 1
por lo que la trayectoria mnima viene dada por
x = t

Introduccion a la optimizacion de sistemas dinamicos


El valor de T se determina mediante la ecuacion
x (T ) = y(T )
lo que da T = 1.

367

Tema 15
M
etodos Variacionales en
Control Optimo
15.1

Aplicaci
on del c
alculo de variaciones a la
resoluci
on del problema del Control Optimo

Sea el sistema dinamico


x = f (x, u)

(15.1)

y supongase, ademas, un ndice de funcionamiento dado por


J=

Z T
0

L(x, u)dt

(15.2)

Se trata de determinar la se
nal de control optima u (t) en el intervalo (0, T ).
Se pueden presentar dos casos, seg
un que se pueda o no dejar explcita u en
la expresion (15.1).

15.1.1

Se puede eliminar u

Supongase que en la expresion (15.1) es posible dejar explcita u. En tal caso se


podra escribir
u = g(x, x,
t)
368

Metodos Variacionales en Control Optimo

369

lo que se le podra llevar a la expresion (15.2) obteniendose


J=

Z T
0

L(x, g(x, x,
t), t)dt
Z T

J=

L0 (x, x,
t)dt

(15.3)

(15.4)

con lo que el problema se ha reducido a uno de calculo variacional, para cuya


solucion se emplean las ecuaciones de Euler.

Ejemplo 1
Sea el sistema descrito por la ecuacion:
x = x + u
se trata de determinar u(t) que minimice
J=

Z 1
0

(x2 + u2 )dt

De la ecuacion del sistema se tiene que u = x + x, y sustituyendo en la expresion


de J, se tiene
J=

Z 1
0

(x2 + (x + x)2 )dt =

Z 1
0

(2x2 + 2xx + (x)


2 )dt

es decir,
L = 2x2 + 2xx + (x)
2
Recordando la ecuacion de Euler:
L
d L

=0
x dt x
En este caso se tiene
L
= 4x + 2x
x
L
d L
dx
d2 x
= 2x + 2x
=2 +2 2
x
dt x
dt
dt
Por lo tanto la ecuacion de Euler resulta ser
d2 x
2x = 0
dt2

Metodos Variacionales en Control Optimo

370

La integracion de esta ecuacion diferencial determina la trayectoria optima de


x(t):

x(t) = C1 e 2t + C2 e 2t

x(t)

= 2C1 e 2t + 2C2 e 2t
Por tanto la trayectoria optima de la se
nal de mando es:
u(t) = x(t) + x(t)

= C1 (1 2)e 2t + C2 (1 + 2)e 2t
Las constantes C1 y C2 se determinan en funcion de los estados inicial y final del
sistema.
Suponiendo x(0) = 1; x(1) = 0; se tiene
C1 = 1.0628 C2 = 0.0628
Ejemplo 2
Para un integrador simple x = u encontrar la entrada de control u(t) que conduzca
al sistema desde cierto estado inicial x(0) al estado final x(t) de manera que se
minimice la integral,
Z
J=

(x2 + u2 )dt

sujeta a cada una de las condiciones siguientes:


a) x(0) = 1, x(T ) = 0 y T = 1.
b) x(0) = 1, x(T ) sin especificar y T = 1.
c) x(0) = 1, x(T ) = 0 y T sin especificar.
Calcular el valor de la integral correspondiente a cada caso.
Resoluci
on.
En este caso
L = x2 + u2 = x2 + (x)
2
Luego,

L
L
= 2x
= 2x
x
x

Metodos Variacionales en Control Optimo

371

La ecuacion de Euler en este caso conduce a,


d2 x
x=0
dt2
cuya solucion general es,
x(t) = C1 et + C2 et
a) Es el caso mas simple de aplicacion de condiciones de contorno. Estas condiciones conducen a,
1 = C1 + C2
C1
0 =
+ C2 e
e
Cuya solucion es C1 = 1.157 y C2 = 0.157. Luego,
x(t) = 1.157et 0.157et
y,
u(t) = 1.157et 0.157et
El valor de J para este caso resulta ser J = 1.11.
b) La condicion de transversalidad se escribe en este caso

=0
x T =1
lo que se traduce en
x(1)

=0
Por lo tanto las condiciones en los extremos son
x(0) = 1 x(1)

=0
lo que conduce a
1 = C1 + C2
C1
0 =
+ C2 e
e
Es decir, C1 = 0.88 y C2 = 0.12. El valor de J resulta ser 0.761.

Metodos Variacionales en Control Optimo

372

c) En este caso la condicion de transversalidad se convierte, al estar fijo el


valor de xf y no el de T en

L x
=0

x T
pues T , en T es nulo y xf no.
Por lo tanto,
L x(T
)

L
(T ) = 0
x

lo que conduce a
x(T
)=0
Se sabe por lo tanto que
x(0) = 1 x(T ) = 0 x(T
)=0
Se tienen, por tanto, tres ecuaciones con tres incognitas C1 , C2 y T . Las anteriores
ecuaciones se convierten en
1 = C1 + C2
0 = C1 eT + C2 eT
0 = C1 eT + C2 eT
Es facil ver que la solucion del anterior sistema de ecuaciones es
T =
C1 = 1
C2 = 0
ci
nendonos a valores de t > 0, es decir suponiendo que el sistema evoluciona en
el sentido de los tiempos crecientes
Luego
x(t) = et
u(t) = et (0 t < )
En este caso J = 1.

Metodos Variacionales en Control Optimo

15.1.2

373

No se puede eliminar u

Si la eliminacion de u en la expresion (15.1) no es posible, entonces se recurre a


la aplicacion del metodo de los multiplicadores de Lagrange observando que la
ecuacion (15.1) puede interpretarse como una restriccion de la forma
g(x, x)
= f (x, u) x
Se tendra que el funcional modificado que se trata de optimizar sera
J0 =

Z T
0

L0 (x, x,
u, )dt

en donde
L0 (x, x,
u, ) = L(x, u) [f (x, u) x]

(15.5)

Se considerara en lo que sigue m = 1, n = 1 por razones de simplicidad. La


generalizacion es muy simple y el resultado se presentara al final. El problema
queda reducido a determinar los valores de x(t), u(t) y (t) que minimicen el
funcional J 0 .
Para resolver este problema se recurre a las ecuaciones de Euler. El n
umero
de estas ecuaciones sera tres, correspondiente a las variaciones de cada una de las
variables anteriores. Se estudian estas ecuaciones para cada una de las variables
x(t), u(t) y (t).
Ecuacion de Euler con relacion a x. Se tendra

d
[L + (f x)]

[L + (f x)]

=0
x
dt x

d
[L + (f x)]

(x)
=0
x
dt x

[L + f ] =
x

(15.6)

Ecuacion de Euler con relacion a u

d
[L + (f x)]

[L + (f x)]

=0
u
dt u
como L + (f x)
no depende de u,
se tendra

[L + f ] = 0
u

(15.7)

Metodos Variacionales en Control Optimo

374

Ecuacion de Euler con relacion a


f x = 0

(15.8)

Se define la funcion H(x, u, ) de acuerdo con


H(x, u, ) = L(x, u) + f (x, u)
esta funcion recibe la denominacion de funcion de Hamilton o hamiltoniana. Se
tendra que las ecuaciones anteriores pueden escribirse:
H
=
(15.9)
x
H
= 0
(15.10)
u
H
= x
(15.11)

El problema queda reducido a resolver el anterior conjunto de ecuaciones diferenciales para determinar u (t). Un metodo sistematico para hacerlo es el siguiente:
1. Formar la funcion de Hamilton o Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)
2. Resolver la ecuacion algebraica
H(x, u, )
=0
u
que permite obtener u (x, ).
3. Formar la hamiltoniana minimizada, llevando u a H, con lo que se tiene,
H (x, u , )
4. Resolver el sistema de ecuaciones diferenciales,
H
H
=

x
con las condiciones de contorno x(0) y x(t).
x =

(15.12)

5. Los valores de x (t) y (t), determinados en 4, se llevan a 2, con lo que se


tiene
u (x (t), (t), t) = u (t)
En el cuadro se resume el metodo.

Metodos Variacionales en Control Optimo


Resumen de la aplicacion del
Calculo Variacional
a la determinacion del
Control Optimo

Se da el sistema

x = f (x, u)

Se da el criterio

J=

Paso 1

Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)

Paso 2

Se determina u (x, ) admisible tal que


H
=0
u

Paso 3

Se determina la Hamiltoniana mnima


H (x, ) = H(x, u (x, ), )

Paso 4

Se resuelve el sistema de 2n ecuaciones


H
x =

RT
0

L(x, u)dt

H
=
x
con las condiciones de contorno correspondientes.
Se obtiene x (t) y (t).

Paso 5

Se determina u (t) = u (x (t), (t))

375

Metodos Variacionales en Control Optimo

376

Ejemplo 3
Para el sistema
x = 2x + u
con el ndice

1Z 1 2
J=
u dt
2 0
determinar la se
nal de control optima u(t) tal que conduzca al sistema de x(0) =
1 a x(1) = 0. La resolucion del problema se descompone en los siguientes pasos:
1. Se forma la hamiltoniana, que resulta ser
H=

u2
+ (u 2x)
2

2. Se minimiza la hamiltoniana
H
=u+
u
luego,
u =
3. Se forma la hamiltoniana minimizada
2
2 2x
2
2
= 2x
2

H =

(15.13)
(15.14)

4. Se tiene

H
H
= 2x;
= 2

x
de donde se tienen las ecuaciones diferenciales (4)
2x = x
2 =

(15.15)
(15.16)

2 = 0
= k1 e2t

(15.17)
(15.18)

cuya resolucion conduce a

Metodos Variacionales en Control Optimo

377

es decir,
x + 2x = k1 e2t
que constituye la solucion general de la homogenea xg = k2 e2t .
La solucion particular de la completa toma la forma xp = Ae2t . en donde,
2Ae2t + 2Ae2t = k1 e2t
luego

k1
4
La solucion de las ecuaciones diferenciales anteriores, sera de la forma,
A=

x=

k1 2t
e + k2 e2t
4

Aplicando las condiciones de contorno se tiene


k1
+ k2
4
k1
0 = e2 + k2 e2
4
1 =

Eliminando k2 se tiene
k1 =

1
4
4
e 1 e4

luego,
=

e4 (1

4
e2t
e4 )

5. Por lo tanto,
u =

e4 (1

4
e2t
4
e )

Ejemplo 4
Sea la planta
x1 = x2
x2 = u
y el ndice de funcionamiento
J=

1Z 2 2
u dt
2 0

(15.19)
(15.20)

Metodos Variacionales en Control Optimo

378

condiciones de contorno
x1 (0) = x2 (0) = 1
x1 (2) = x2 (2) = 0
1. Se forma la hamiltoniana
1
H = u2 + 1 x2 + 2 u
2
2. Se resuelve la ecuacion en u

H
=0
u

que en este caso resulta ser


H
= u + 2 = 0
u
lo que conduce a
u = 2
Observese que

2H
=1
2u
por lo que u minimiza la Hamiltoniana.
3. Se forma la Hamiltoniana optimizada
1
1
H (x , , t) = 22 + 1 x2 22 = 1 x2 22
2
2
4. Se forman las ecuaciones de estado
x1 =
x2 =
y las de coestado

H
= x2
1

H
= 2
2

H
1 =
=0
x1
H
2 =
= 1
x2

Metodos Variacionales en Control Optimo

379

Las condiciones de contorno son


x1 (0) = x2 (0) = 1
x1 (2) = x2 (2) = 0
Resolucion del problema de contorno mas las ecuaciones de estado
x1 = x2
x2 = 2
1 = 0
2 = 1
(1) 1 = 0 1 = k1
(2) 2 = 1 2 = k1 2 = k1 t + k2
k1 t2
k2 t + k3
2
t3
t2
x1 (t) = k1 k2 + k3 t + k4
6
2

(3) x2 = 2 x2 = k1 t k2 x2 (t) =
(4) x1 = x2 x1 =

k1 t2
k2 t + k3
2

Es decir

t2
k2 t + k3
2
t3
t2
x1 = k1 k2 + k3 t + k4
6
2
Para t = 0 x1 = x2 = 1, luego k3 = 1, k4 = 1.
x2 = k 1

Para t = 2 x1 = x2 = 0, se tiene k1 = 3 k2 = 72 .
Luego

ademas

3t2 7t
+1
2
2
t3 7t2
=

+t+1
2
4

x2 =

(15.21)

x1

(15.22)

7
2
7
(5) u = 2 = 3t
2
1 = 3 2 = 3t +

Metodos Variacionales en Control Optimo

380

Ejemplo 5
Se trata de regular la temperatura de una habitacion con el consumo mnimo de
energa posible. Si (t) es la temperatura en la habitacion, a es la temperatura
ambiental fuera de la habitacion (que se supondra constante) y u(t) es la tasa
de calor que se inyecta en la habitacion, se sabe que el proceso viene descrito
mediante la ecuacion
= a( a ) + bu
(15.23)
en donde a y b son dos constantes que dependen del aislamiento de la habitacion.
Se define el estado como
x(t) = (t) a ,

(15.24)

de modo que la ecuacion de estado se puede escribir


x = ax + bu

(15.25)

Puesto que se trata de regular la temperatura en un cierto periodo de tiempo [0, T ]


con el mnimo suministro de energa posible, se define el ndice de funcionamiento
J=

1Z T 2
u (t)dt
2 0

(15.26)

Se tiene, por tanto, definido un problema de control optimo mediante las expresiones (15.25) y (15.26). Para su resolucion se procede mediante los cuatro pasos
anteriores.
1. Se forma la Hamiltoniana
H=

u2
+ (ax + bu)
2

(15.27)

2. se resuelve con respecto a u la ecuacion


0=

H
= u + b
u

(15.28)

con lo que se tiene


u (t) = b (t)
3. Se forma la Hamiltoniana optimizada
H =

u2
+ (ax b2 )
2

(15.29)

Metodos Variacionales en Control Optimo

381

Se forman las ecuaciones de coestado, que resultan ser


x = ax b2

(15.30)

= a

(15.31)

cuya resolucion permitira obtener (t) y la trayectoria de estado optima


x (t).
Para integrar las ecuaciones de coestado vamos a proceder como si conociesemos
el valor final de (T ). En tal caso, la solucion de (15.31) es
(t) = ea(T t) (T )

(15.32)

x = ax b2 (T )ea(T t)

(15.33)

que llevado a (15.30) da

Esta ecuacion se puede resolver empleando la transformada de Laplace. En


efecto, se tiene
x(0)
b2 (T )eaT

s + a (s + a)(s a)
!

x(0)
b2
1/2
1/2
aT
=
(T )e
+
s+a
a
s+a sa

X(s) =

(15.34)

De modo que

b2
(T )eaT sinhat
(15.35)
a
Las expresiones (15.32) y (15.35) nos dan (t) y x (t) en funcion de el
estado inicial x(0) y el valor final de (T ).
x (t) = x(0)eat

Supongamos que la temperatura inicial de la habitacion es igual a la temperatura exterior a = 100 . Se hace
x(0) = 0

(15.36)

Ademas, supongase que se trata de que la temperatura final (T ) sea 200


al cabo de T segundos. Por tanto, el estado final se pretende que alcance
el valor
x(T ) = 10
(15.37)
Se tiene, por tanto, un problema de control optimo en el que tanto el estado
final como el tiempo final estan fijados (aunque de momento no hayamos
asignado un valor concreto a T ).

Metodos Variacionales en Control Optimo

382

Con ayuda de (15.36) y de (15.37) se puede determinar (T ). En efecto, en


la expresion (15.35) se tiene
x(T ) = x(0)eaT

b2
(T )(1 e2aT )
2a

(15.38)

teniendo en cuenta (15.36) y (15.37) se tiene que


(T ) =

20a
b2 (1 e2aT )

(15.39)

lo que llevado a la expresion (15.32) conduce a


(t) = ea(T t) (T )
20aeaT
= 2
eat
b (1 e2aT )
10a
eat
= 2 aT
e eaT
b
2
10aeat
=
bsinhaT

(15.40)
(15.41)
(15.42)

(15.43)

Recordando que

eaT eaT
2
Por u
ltimo, la tasa optima de inyeccion de calor en la habitacion viene dada
por (15.29), es decir
10aeat

(15.44)
u (t) =
sinhaT
y la trayectoria optima para el estado viene dada por
sinhaT =

x (t) = 10

sinhat
sinhaT

(15.45)

Observese que x (T ) = 10.

15.1.3

Introducci
on de un t
ermino de control terminal

Vamos a considerar ahora el caso, que se presenta a veces en aplicaciones, en el que


en el ndice de funcionamiento aparezca un termino (o varios) escalar que dependa

Metodos Variacionales en Control Optimo

383

del valor alcanzado por el estado en el instante final x(T ) y eventualmente del
propio tiempo final T . Es decir, sea un ndice de funcionamiento de la forma
J=

Z T
0

Ldt + S(x(T ), T ) S(x(0), 0)

(15.46)

en donde S(x(T ), T ) representa el llamado termino de control terminal. Este caso


se puede reducir al estudiado hasta aqu. En efecto, considerese
Z t"

J =

Z t

=
es decir
J=

Z T
0

dS
L+
dt
dt

(15.47)

dS

(15.48)

Ldt +

Z t
0

Ldt + S(x(T ), T ) S(x(0), 0)

(15.49)

Observese que puesto que x(0) y el instante inicial 0 estan fijados de antemano,
la minimizacion del ndice (15.49) es equivalente a la minimizacion del ndice
(15.47). (Normalmente S(x(0), 0) = 0)
Observese que la expresion (15.47) puede escribirse tambien:
J=

Z T"
0

S
S
L+
x +
dt
x
t

(15.50)

Por lo que esta sera la forma que se adoptara para el ndice de funcionamiento en
lo que sigue. Por tanto, el problema de control con termino de control terminal
se puede plantear, como se ha hecho hasta ahora modificando la funcion L(x, u)
para convertirla en
Z
J0 =

La (x, x,
u, t)dt

(15.51)

con este planteamiento se puede aplicar el calculo de variaciones, tal como se ha


hecho anteriormente.
Recordando la expresion, se tiene que de la aplicacion del metodo de los
multiplicadores de Lagrange se desprende que en este caso
L0 = La + (f x)

S
S
x +
+ (f x)

= L+
x
t

(15.52)
(15.53)

Vamos a comprobar que la introduccion de un termino de control terminal no


altera el planteamiento Hamiltoniano que se ha presentado en la seccion anterior,

Metodos Variacionales en Control Optimo

384

excepto en lo que respecta a las condiciones de transversalidad, como veremos


luego. Para presentar el metodo de Hamilton de resolver el problema de control
optimo se ha partido de la expresion (15.5). Ahora debemos partir de la (15.53).
La ecuacion Euler con relacion a x conduce a

d
[La + (f x)]

[La + (f x)]
=0
x
dt x

(15.54)

desarrollando el primer miembro del primer termino se tiene


"

2S

S
S

2S
x

+
L+
x +
+ (f x)
=
[L + f ] +
x
x
t
x
x2
xt
Por otra parte se tiene
"

S
S
S
L+
x +
+ (f x)
=

x
x
t
x

(15.55)

por lo que el segundo termino de (15.54) sera


"

d S

dt x
teniendo en cuenta que
"

"

"

dS
S
d S
S
=
=
x +
dt x
x dt
x x
t

se tendra que (15.54) se puede escribir

[L + f ] =
x
que resulta ser la misma expresion que se tena en (15.6). Es decir, la ecuacion
de Euler con relacion a x es la misma se tenga o no termino de control terminal.
Es inmediato comprobar que sucede lo mismo con las ecuaciones de Euler con
relacion a u y a dadas en las expresiones (15.7 y 15.8).
El tiempo final T y el estado que se alcance en dicho instante x(T ) pueden
estar fijados de antemano o no. En este segundo caso, que por otra parte es el
mas frecuente en los problemas con termino de control terminal, hay que recurrir
a las condiciones de transversalidad. Vamos, ademas, a aprovechar esta oportunidad para establecer la condiciones de transversalidad en el planteamiento
hamiltoniano.

Metodos Variacionales en Control Optimo

385

Recordando la expresion (14.22) se tiene que las condiciones de transversabilidad para este caso vienen dadas por la expresion

"

L0
L0
T = 0
xf + L0 x
x T
x T

(15.56)

Es claro que de (15.53) y (15.55) se tiene:


L0
S
=

x
x
Por lo que la expresion (15.56) se convierte en
"

#
"

! #

S
S
S

f
x + L +
x +
+ (f x)

x T |T = 0

x
t
x

lo que se puede escribir


"

"

S
S

xf + L + f +
x
t
T

T = 0

que tambien puede escribirse


"

#
#
"

f
T = 0
x + H +

t T
T

(15.57)

El punto 4) del procedimiento de resolucion implica el resolver las ecuaciones


diferenciales (4)
H
x =

H
=
x
Si la dimension del vector de estado es n, entonces la resolucion del anterior
sistema de ecuaciones diferenciales implica la determinacion de 2n constantes.
Estas constantes se determinaran con ayuda de las condiciones de contorno. Estas
condiciones son:
1. Estado inicial x(0) que permite el establecimiento de n ecuaciones.
2. Condiciones finales generalizadas que vienen dadas por la ecuacion
"

#
#
"

x + H +
T = 0

t T
T

Metodos Variacionales en Control Optimo

386

si no existe termino de control terminal, es decir, si S(x, T ) = 0, se simplifican a


|T xf + H |T T = 0
Se pueden distinguir dos casos:
1. Estado final impuesto y tiempo final libre.
En tal caso xf = 0, y la determinacion de las n constantes se hace a partir
de

!
S

H +
=0
t T
2. Estado final libre y tiempo final T determinado.
En tal caso se tiene que T = 0, por lo que la anterior ecuacion implicara
que

!
S
|T = 0
(15.58)
x
lo que permite establecer n ecuaciones suplementarias para determinar las
n constantes restantes.
Si S = 0, se tiene i (T ) = 0.
Las dos situaciones anteriormente consideradas constituyen los dos casos extremos
que se pueden dar. Supongase, que ni el estado final ni el instante final T estan
dados de antemano, pero s la trayectoria y(t) en la que debe encontrarse el
estado final. En tal caso, las condiciones de contorno en el extremo final pueden
escribirse
(T )xf + H [x(T ), (T ), T ]T = 0
(15.59)
Es inmediato ver que dx = y(T )dt, y puesto que dt es arbitrario, es necesario que
(T )y(T
) + H0 (T ) + y(t)

S
S
|T +
|T = 0
x
x

(15.60)

Esta ecuacion, junto con el hecho de que x(T ) = y(T ) especifica completamente
la solucion.

Ejemplo 6
Sea el sistema:
x = u(t)

(15.61)

Metodos Variacionales en Control Optimo

387

que representa un movil que se acelera, y se trata de maximizar la distancia


recorrida en un tiempo determinado, minimizando al mismo tiempo una medida
cuadratica de la actuacion; es decir, adoptando el ndice
J = x(T ) +

1Z T 2
u dt
2 0

Se pide la se
nal de control, para el caso x(0) = 0 y x(0)

=0
La descripcion interna del sistema (15.61) viene dada por
x 1 = x2
x 2 = u(t)
con las condiciones iniciales x(0) = 0 y x(0)

= 0.
Se construye la Hamiltoniana
u2
H = L + 1 f1 + 2 f2 =
+ 1 x2 + 2 u
2
Minimizandola con respecto a u se tiene
H
=0
u
Es decir
u + 2 = 0
por lo que la se
nal de control optima sera
u = 2
Por tanto, la hamiltoniana optima vendra dada por
H =

22
+ 1 x2
2

Por los que las ecuaciones de Hamilton pueden escribirse


H
= 1
x1
H
= 2
x2

(15.62)

Metodos Variacionales en Control Optimo

388

es decir
1 = 0
2 = 1
y, por tanto,
1 = k1

2 = k1 t + k2

Para determinar las constantes de integracion se recurre a las condiciones de


contorno que, en este caso, puesto que T es fijo y el estado final x(T ) es libre
resultan ser

!
S
i
=0
xi
T
Por tanto
!

S
1
= 0 1 (T ) = 1 1 = 1
x1
T

S
2
x2

= 0

2 (T ) = 0 2 (t) = T + t

Se tiene que la se
nal de control optimo es
u (t) = T t
Por tanto la se
nal de control optima es tal que la fuerza aplicada debe de crecer
linealmente con el tiempo, hasta anularse para t = T .
Este problema puede resolverse tambien aplicando directamente las ecuaciones
de Euler, puesto que estamos en el caso en el que se puede eliminar u que se vio
en 15.1.2. En efecto, el ndice (15.62) del problema puede escribirse, eliminado u,
e incorporando al integrando el termino de control terminal (recordando lo que
se hizo en (15.48)), de la forma
J=

Z T
1 2
x 2 x2 dt

2
Por tanto se tiene un problema de Euler con
1
L = x 22 + x2
2
con condiciones iniciales x1 (0) = x2 (0) = 0. Para determinar las ecuaciones de
Euler se tiene que
0

L
= 1
x2
L
= x 2
x 2

Metodos Variacionales en Control Optimo

389

Por lo que la ecuacion de Euler


L
d L

=0
x2 dt x 2
se convierte en
x2 = 0
2

cuya integracion conduce a x2 (t) = t2 + c1 t + c2


Las condiciones de contorno como, en este caso, puesto que T es fijo, son
L
|T = x 2 (T ) = T + c1
x 2
luego c1 = T . Ademas x2 (0) = c2 = 0. Por tanto,
u = x 2 = T t
Ejemplo 7
Se trata de determinar la se
nal de control optimo para el sistema de primer orden
x = x + u
con x(0) = 0 para
que se maximice el valor final de x al tiempo que se minimiza
R
el funcional 21 01 u2 dt. Se supone que la ponderacion entre ambos objetivos es
de manera que
Z 1
1 2
J=
u dt x(1)
0 2
Se procede de acuerdo con los pasos siguientes:
1. Se forma la hamiltoniana
1
H = u2 + (u x)
2
2. Se minimiza la hamiltoniana
H
=u+
u
es decir
u =

Metodos Variacionales en Control Optimo

390

3. Se forma la hamiltoniana minimizada


2
2
H =
2 x = x
2
2
4. Se forman las ecuaciones diferenciales (4)
H
=
x
H
= x

Que resultan ser

=
x = x

De la primera de estas ecuaciones se tiene,


= 0 = k1 et

(15.63)

De la segunda se tiene
x + x =
es decir, de ambas,
x + x = k1 et
cuya solucion es

k1 t
e
2
Las condiciones de transversalidad son (puesto que el estado final es completamente libre y T = 1)
x(t) = k2 et

[
como S = x(t) se tiene

S
]|T =1 = 0
x

(15.64)

S
=
x

(15.65)

De (15.64) y (15.65) se tiene


(1) =
Seg
un (15.63), se tiene
(1) = k1 e
es decir
k1 =
luego

(1)

=
e
e

u = (t) = et = e(t1)
e

Metodos Variacionales en Control Optimo

391

Ejemplo 8
En este ejemplo vamos a considerar una variante del ejemplo de la regulacion
de la temperatura en una habitacion que se ha visto al final de la seccion anterior. Vamos a suponer que se trata de que la temperatura final alcanzada por la
habitacion no sea exactamente de 10o (es decir que el estado final x(T ) no sea
exactamente 10), sino que se trata de minimizar el ndice
1
1Z T 2
u (t)dt + (x(T ) 10)2
J=
2 0
2
en donde es un factor de ponderacion entre los dos terminos que aparecen en el
ndice de funcionamiento. El primer termino de J mide el coste de la actuacion,
y es el mismo que se tena en la expresion (15.26). El segundo termino es una
expresion cuadratica que mide la desviacion del estado final x(T ) del valor 10.
De acuerdo con este termino se trata de penalizar el hecho de que x(T ) no sea
igual a 10, pero sin pretender que este sea exactamente el valor alcanzado.
Por tanto, el ndice J esta formado por dos terminos. El primero penaliza el
coste de la actuacion. Mientras que el segundo se refiere a la meta que se persigue
mediante el funcionamiento del sistema: que el estado final alcance un valor lo
mas cercano posible a 10. Estos dos terminos se suman afectando a uno de ellos
(en este caso al primero) mediante un factor de peso que mide la importancia
relativa que se asigne al comportamiento deseado (primer termino) o al coste de
alcanzarlo (segundo termino). Es decir, si se adopta un valor para muy grande,
entonces la solucion optima cumplira preferentemente la meta de que x(T ) toma
un valor proximo a 10, dando poca importancia al coste necesario para alcanzar
esta meta. Por el contrario, si es peque
no practicamente lo u
nico que se tiene
presente es el coste y nos encontramos con un problema analogo al discutido
anteriormente.
Para la resolucion del problema se procede en este caso como anteriormente,
pero sin embargo en este caso se tiene un termino de control terminal y el estado
final x(T ) no esta dado. Se trata, por tanto, de un problema de control optimo
con termino de control terminal, estado final libre y tiempo final T determinado.
Las condiciones de contorno en T vienen dadas, en ese caso, por la expresion
(15.58), que, en este caso, conduce a
(T ) =

S
|T = (x(T ) 10)
x

(15.66)

Metodos Variacionales en Control Optimo

392

que es la nueva condicion final. Esta expresion se puede escribir


x(T ) =

(T )
+ 10

(15.67)

que llevada a (15.38) y recordando que x(0) = 0 conduce a


x(T ) =

20a
2a +
e2aT )
b2 (1

(15.68)

llevando, a su vez, esta expresion de (T ) a la expresion (15.32) se tiene


(t) =

10aeat
aeaT + b2 sinhaT

(15.69)

Por u
ltimo, mediante la expresion (15.29) se tiene
u (t) =

10abeat
aeaT + b2 sinhaT

(15.70)

10b2 sinhat
aeaT + b2 sinhaT

(15.71)

La trayectoria optima resulta ser


x (t) =

Observese que si tiende a infinito la se


nal de mando (15.70) se convierte en la
(15.44) y el resto de las trayectorias tienden a ser las mismas que las determinadas
antes. En particular el estado final x (T ) tiende a alcanzar exactamente el valor
10.

Tema 16
Principio del Mnimo de
Pontriagin
16.1

Introducci
on

Al aplicar los metodos variacionales (ecuacion de Euler) a la resolucion del problema del control optimo, se pueden presentar los siguientes tipos de dificultades:
1. Los metodos variacionales suministran los maximos y mnimos relativos de
J(u) y no los absolutos;
2. Las ecuaciones de Euler son, normalmente, no lineales lo que frecuentemente
imposibilita la obtencion de la solucion de forma explcita;
nales de control estan aco3. Normalmente, los valores admisibles para las se
tados, lo que hace imposible la determinacion de la se
nal de control optimo
por metodos variacionales.
Al estudiar en el apartado anterior el problema del control optimo, se ha considerado que los valores posibles tomados por la se
nal de entrada no estaban acotados.
Es decir, que U = IR. Este caso, obviamente, no es el mas general, sino que debe
considerarse el caso en que la region de las se
nales de control admisibles este
acotada; es decir, U este acotada.
Esta u
ltima circunstancia, especialmente, tuvo una importancia decisiva para
el desarrollo de nuevas ideas en la teora del control optimo. Las limitaciones que
393

Principio del Mnimo de Pontriagin

394

se imponen normalmente a las se


nales de control son del tipo,
| ui | Mi
Este tipo de limitaciones son perfectamente naturales en las aplicaciones. As,
por ejemplo, los valores que alcanza una magnitud electrica, como la tension o
la intensidad, en un determinado circuito, estan, en la practica, limitadas por
consideraciones de tipo fsico; lo mismo sucede en los equipos mecanicos con las
posiciones o las velocidades; y as en cualquier sistema fsico. En general, una
forma de la evolucion de una magnitud fsica, y en particular de una se
nal de
mando, en un proceso fsico real, toma la forma que muestra la figura 16.1.

Figura 16.1:
Seg
un se vera mas abajo, para obtener comportamientos optimos con respecto
a determinados criterios se requiere que se mantengan las se
nales de control en
sus valores extremos. Esto sucede especialmente en los problemas de control en
tiempo mnimo.
En 1956, los matematicos rusos Pontriagin, Boltianskii y Gamkrelidge estudiaron el problema de la optimizacion dinamica para el caso en que la region
de se
nales de control admisibles U estuviese acotada, y establecieron el famoso
principio del mnimo (en el trabajo original del maximo) al que se ha unido el
nombre del primero de estos tres autores.
El principio del mnimo de Pontriagin constituye una generalizacion de los
resultados alcanzados con ayuda del calculo variacional para resolver el problema
del control optimo. La diferencia esencial entre los resultados alcanzados con
ayuda del calculo variacional y aquellos que se obtienen con ayuda del principio
del mnimo de Pontriagin, reside en que en este u
ltimo caso se puede definir un
espacio de funciones admisibles U(t) para las se
nales de control u(t). Al mismo
tiempo las se
nales u(t) de control admisibles pueden presentar discontinuidades

Principio del Mnimo de Pontriagin

395

en un n
umero finito de puntos; con ello se abre la posibilidad de estudiar el control
por conmutacion, que tanto interes tiene en determinadas aplicaciones practicas,
como se vera mas adelante.
Recordando el problema del control optimo, se tiene un sistema cuya evolucion
viene dada por
x = f (x, u)
(16.1)
siendo conocido x(0).
Las se
nales de control admisibles deben pertenecer a un conjunto cerrado U,
es decir,
u(t) U
(16.2)
El estado y el instante al final del proceso estan definidos por un conjunto de
pares (x(T ), T ) B.
El criterio a optimizar es de la forma
J=

Z T
0

L(x, u)dt + S(x(T ), T )

(16.3)

Se define, ademas, la funcion hamiltoniana de acuerdo con la expresion siguiente


H(x, u, ) = L(x, u) + f (x, u)

(16.4)

El principio del mnimo de Pontriagin permite establecer las condiciones necesarias para que una se
nal de control admisible de lugar a un control optimo.
Sea u(t) una se
nal de control admisible y x(t) la trayectoria correspondiente, de
manera que x(t) este definida por
x = f (x, u)

(16.5)

x(0) = 0

(16.6)

Por otra parte, se definen las ecuaciones adjuntas o de coestado como sigue:
d
f
L
=
dt
x
x

(16.7)

Por u
ltimo, recordando las expresiones (15.57) las condiciones finales dan lugar a
(T )xf H(T )T =

S
S
xf +
T
x
t

(16.8)

Con todo los elementos anteriores se puede enunciar el principio del mnimo de
Pontriagin como sigue:
Teorema (Principio del mnimo de Pontriagin).

Principio del Mnimo de Pontriagin

396

Supuesto que existe un vector adjunto (t) tal que satisfaga las ecuaciones adjuntas (16.7) y las condiciones finales (16.8) para todo vector
(xf , T ) tangente a B en el punto (x(T ), T ), entonces la condicion
necesaria para la existencia de un mnimo es que en todo punto
t (0, T ) la funcion hamiltoniana H(x, u, ) alcance su mnimo con
relacion a u.
De acuerdo con el principio de Pontriagin la eleccion del control optimo u es muy
simple: en cada instante de tiempo, u debe seleccionarse de manera que garantice
el mnimo posible de la hamiltoniana H, teniendo en cuenta las restricciones
(limitaciones) impuestas sobre los valores admisibles de u.
La funcion hamiltoniana permite evaluar variaciones del criterio J debido a
variaciones admisibles e infinitesimales de la se
nal de control u(t). La variacion
del hamiltoniano H debida a una variacion u se denota por H, y se escribe,

H =

L
f
+
u
u
u

(16.9)

Para la demostracion del teorema del mnimo de Pontryagin interesa establecer


en primer lugar el siguiente lema:

Lema
Sea una trayectoria nominal (o de referencia) x(t) de un sistema
dinamico, generada por una se
nal de mando u(t).
La variacion del criterio J debida a una variacion admisible u de
la se
nal de control optimo u (que determinara una variacion de la
trayectoria x) viene dada por
J =

Z T
0

H(t)dt

(16.10)

en el supuesto de que se cumplan las ecuaciones adjuntas (16.7) y las


condiciones finales (16.8).
Demostraci
on
Sea el sistema dinamico
x = f (x, u)

Principio del Mnimo de Pontriagin

397

Debido a la variacion de la se
nal de control u se produce una variacion de la
trayectoria x que vendra dada por la ecuacion diferencial siguiente:
x + x = f (x + x, u + u)
es decir

f
f
x +
u
x
u
Por las razones que se pondran de manifiesto mas abajo interesa calcular la
variacion con el tiempo de x. Se tiene
x =

d(x)
d
d(x)
=
x +
dt
dt
dt !

!
L f
f
f
=

x +
x +
u
x x
x
u
L
f
= x + u
x
u
Pasando al primer miembro el primer termino del segundo miembro, y sumando
a ambos miembros L
u se tiene, recordando (16.9).
u
d(x) L
L
f
L
+
x +
u = u +
u
dt
x
u
u!
u
L
f
+
u
=
u u
= H
Observese que en H se indica la variacion de H debida exclusivamente a la
variacion de u, supuestos x y constantes. Integrando la anterior expresion
entre 0 y T , y recordando que x(0) = 0 se tiene
(T )x(T ) +

Z T
L
0

Z T
L
x +
u dt =
Hdt
x
u
0

(16.11)

Por otra parte, de acuerdo con la figura 16.2, se puede aproximar el desplazamiento xf entre la trayectoria nominal y la trayectoria perturbada con la siguiente expresion, (que es la misma que la (14.21))
x(T ) = xf x(T
)T

(16.12)

siendo (xf , T ) tangente a B. Es decir,


(T )x(T ) = (T )(xf x(T
)T )

(16.13)

Principio del Mnimo de Pontriagin

398

x (T )
x(T
f )T

xf

T + T

Figura 16.2:
Recordando las condiciones finales (16.8), se tiene, en el caso en que S = 0,
(T )xf = H(T )T

(16.14)

Por lo que (16.13) se puede escribir


(T )x(T ) = H(T )T (T )x(T
)T

(16.15)

Por otra parte, se tiene que


H(T ) = (T )f (T ) + L(T )

(16.16)

(T )x(T
) = H(T ) L(T )

(16.17)

lo que se puede escribir

lo que llevado a la expresion (16.15) conduce a


(T )x(T ) = L(T )T

(16.18)

Por otra parte se sabe que


J =

Z T
L
0

L
x +
u dt + L(T )T
x
u

Z T +T
T

Ldt ' L(T )T

(16.19)
(16.20)

Teniendo en cuenta (16.18) la anterior expresion se reescribe:


J =

Z T
L
0

L
x +
u dt + (T )x(T )
x
u

(16.21)

Principio del Mnimo de Pontriagin

399

lo que seg
un (16.11) conduce a:
J =

Z T
0

Hdt

(16.22)

con lo que queda demostrado el lema. 2


Recuerdese que la variacion de H que se considera en la expresion (16.22) es
exclusivamente la debida a u. Es decir, la expresion (16.22) se puede escribir
J = J(u) J(u ) =

Z T
0

(H(x , u, ) H(x , u , ))dt

(16.23)

Aparentemente no hay nada de extraordinario en el anterior lema. De hecho,


la ecuacion adjunta y las condiciones de tranversalidad prefiguran el resultado
alcanzado. Sin embargo es interesante resaltar el interes de la expresion (16.22),
ya que permite evaluar el efecto sobre J de una variacion local de u. Esta
interpretacion conduce al teorema del mnimo de Pontriagin. Para enunciar ese
teorema se parte del hecho de que toda trayectoria optima esta caracterizada por
la condicion
J 0,
u(t)
(16.24)
que, de acuerdo con el lema, se convierte en que la condicion necesaria para el
mnimo es
Z T
H(t)dt 0
(16.25)
0

para toda variacion infinitesimal admisible u(t).


Considerese variaciones u(t) tales que,
u(t) = u < t <
= 0 resto
de manera que se cumpla:

u(t) + u(t) U
x(t) + x(t) corta a B
La condicion de mnimo de la expresion (16.25) se convierte en
H(t) 0

(16.26)

Principio del Mnimo de Pontriagin

400

para todo 0 < t < T . En efecto, para demostrar la expresion (16.26) se procede
por contradiccion. Supongase que existe un valor de u y uno del tiempo t1 tales
que
H(x (t1 ), u (t1 ), (t1 )) > H(x (t1 ), u, (t1 ))
(16.27)
es decir, que H(
u) en t1 es menor que H(u ) optima. Entonces es posible concebir
una se
nal u(t) tal que coincide con u (t) para todo valor de t excepto en un
peque
no entorno de t1 en el que toma el valor u(t1 ) = u (figura 16.3). Puesto que
u

t1

t1

Figura 16.3:
H es continua con relacion a x, y (en la medida en que lo son L y f ) se tendra
que en un entorno de t1 se podra determinar un valor de 0 tal que
H(x (t), u (t), (t)) H(x (t), u(t), (t)) < 0

(16.28)

para todo t tal que t t1 < . De lo anterior se desprende


J = J(
u(t)) J(u (t))
=

Z T
0

(H(x (t), u(t), (t)) H(x (t), u (t), (t)))dt < 0

Haciendo arbitrariamente peque


no se tiene
J < 0

(16.29)

Principio del Mnimo de Pontriagin

401

en contradiccion con lo supuesto. Es decir, en el caso en que para un valor u y


un tiempo t1 se cumpla la expresion (16.27) puede suceder (16.29). Para que no
suceda (16.29) es necesario que (16.27) no suceda. Luego tiene que cumplirse,
como establece el teorema que se trataba de demostrar.
De hecho el principio del mnimo de Pontriagin no hace sino generalizar los
resultados alcanzados en el apartado anterior para el caso en que u (t) se encuentre en los lmites de U , y no en el interior de esta region. Es decir, el principio
del mnimo de Pontriagin generaliza al caso en que u este acotada el resultado
demostrado anteriormente seg
un el cual la determinacion de la se
nal de control
u que minimiza al funcional J es equivalente a la determinacion de la se
nal u
que minimice la funcion hamiltoniana H.
El interes del principio del mnimo, como el del calculo variacional, reside
en que el problema inicial de minimizar un funcional J se transforma en una
infinidad (para cada valor de t (0, T )), de problemas de minimizacion de un
escalar H.
En el apartado anterior se ha visto que la determinacion de u (t) que minimice
a H se haca resolviendo la ecuacion algebrica
H
=0
u
Esta ecuacion permite determinar el mnimo de H en el caso en que u se encuentre en el interior de U , lo que siempre sucede en el caso de que u no este acotada.
En el caso en que u este acotada, la determinacion del mnimo de H debe hacerse
por otro tipo de consideraciones, y no con ayuda de la ecuacion anterior. La
demostracion rigurosa de que u debe elegirse de manera que minimice H es la
contribucion basica de Pontriagin a la teora del control optimo.
Habida cuenta del principio del mnimo de Pontriagin, los cinco pasos enunciados en el apartado anterior para resolver el problema de la determinacion de
la ley de control optima mantienen su vigencia, excepto el segundo que toma la
forma siguiente:
- Determinar u tal que
u = arg. min.H
en donde arg. min. debe leerse obtener el argumento u que minimice H.
Es decir, la hamiltoniana se minimiza en cada punto del tiempo a lo largo de
la trayectoria optima por eleccion de los valores de u optimos. As, para cualquier

Principio del Mnimo de Pontriagin

402

valor de t [t0 , T ] sucede que o existe una solucion interior en la cual


H
=0
n
como sucede en los casos considerados al estudiar el calculo de variaciones, o se
tiene un asolucion de contorno en la cual
H
0
n
en donde n es una normal dirigida hacia el exterior sobre el contorno de U. En
la figura 16.4 se representan graficamente estas dos posibilidades, para el caso en
que la dimension de u sea 1.
H

Ho
Ho

uo

uo

Solucion interior

Solucion de contorno
Figura 16.4:

En la figura se considera la forma de H, en funcion de u, para un instante


generico de tiempo t.
En el cuadro se resume el metodo modificado.

Principio del Mnimo de Pontriagin


Resumen de la aplicacion del
Principio del mmimo de Pontriagin
a la determinacion del
Control Optimo

Se da el sistema

x = f (x, u)

Se da el criterio

J=

Se dan las restricciones

| u | Mi

Paso 1

Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f (x, u)

Paso 2

Se determina u (x, ) admisible tal que


minimice H(x, u, ) con respecto a u

Paso 3

Se determina la Hamiltoniana mnima


H (x, ) = H(x, u (x, ), )

Paso 4

Se resuelve el sistema de 2n ecuaciones


H
x =

= H
x
con las condiciones de contorno correspondientes.
Se obtiene x (t) y (t).

Paso 5

Se determina u (t) = u (x (t), (t))

RT
0

L(x, u)dt

403

Principio del Mnimo de Pontriagin

404

Debe notarse que el principio del mnimo representa exclusivamente una condicion
necesaria, es decir, que una vez obtenido el valor debe comprobarse que efectivamente corresponde a un mnimo.
En algunos libros, y especialmente en el original de Pontriagin, el principio del
mnimo se denomina del maximo. En u
ltimo extremo ello no es sino un problema
de signos en la hamiltoniana que debe ser optimizada.

Ejemplo 1
Se trata de trazar una curva x(t), 0 t T , que se inicie en x(0) = 0, cuya
pendiente en cada punto no sea mayor que 1 y que maximice el valor de x(t) en
t = T.
El problema puede formularse representando la curva mediante el sistema
dinamico:
x = u(t)
Este curva debe ser tal que x(0) = 0, y ademas se pide que u(t) 1. Puesto que
se pretende maximizar x(T ) el criterio sera:
J = x(T )
Se trata, por tanto, de un problema de control optimo con un termino de control
terminal tal que S(x(T ), T ) = x(T ). Aplicando el metodo que se acaba de presentar, se tendra que en este caso L(x, u) = 0 y f (x, u) = u por lo que la funcion
hamiltoniana sera:
H = u
Conviene notar que en la funcion hamiltoniana no aparece el termino relativo al
control terminal (al estado final). De la expresion de H se desprende que para
< 0 el valor optimo de u es y para > 0 es u = 1.
Las ecuaciones de Hamilton resultan ser:
H
=u

H
=
=0
x
x =

Integrando (16.31) se tiene


(t) = k

(16.30)
(16.31)

Principio del Mnimo de Pontriagin

405

x(t)
x1 (t)
T

Figura 16.5: Problema de la curva optima con crecimiento acotado.


siendo k una constante. Por otra parte la condicion de contorno, puesto que
se trata de un problema con estado final libre y tiempo final T determinado,
resulta ser, recordando (15.58), (T ) = 1. Por tanto k = 1, y (t) = 1 > 0.
En consecuencia, la se
nal de control optima sera u = 1. Llevando este valor a
(16.30), y recordando que x(0) = 0, se tiene que la curva optima sera
x(t) = t
Este resultado, que se muestra en la figura 16.5, tiene un contenido muy intuitivo.

Ejemplo 2: Control
optimo de un sistema lineal
Sea el sistema
x = 2x + u
con el ndice

Z T
0

x2 dt

y con la restriccion | u | 1. Se forma la hamiltoniana,


H = x2 + (u 2x)
Para optimizar la hamiltoniana se observa que la dependencia de esta funcion de
u se limita al termino u. Por tanto, teniendo presentes las restricciones sobre u,
es claro el valor optimo de u sera u = +1 si < 0 y u = 1 si > 0 Ver figura
16.6).

Principio del Mnimo de Pontriagin

406

H
>0

+1

<0

+1
u

Figura 16.6:
Si se emplea la funcion sgn (se lee signo) se escribe,
u = sgn ()
La hamiltoniana optima sera
H = x2 sgn () 2x
La ecuacion adjunta es:

= 2x + 2

El conjunto se puede mecanizar interpretar mediante un diagrama como el de la


figura 16.7.
Observese que puesto que S = 0, la condicion de contorno es (T ) = 0.

Ejemplo 3: Control
optimo de un sistema de dimensi
on dos
Sea el sistema (planta) con ecuaciones de estado
x1 = x2
x2 = x1 + u
Se trata de minimizar el criterio de funcionamiento
1Z T 2
(x1 + u2 )dt
J=
2 0

Principio del Mnimo de Pontriagin

407

-1

-2

-2

Figura 16.7: Diagrama de bloques.


Con se
nales de control admisibles tales que
| u(t) | 1 t [0, T ]
Para resolver el problema se procede de acuerdo con los pasos indicados anteriormente.
1. Se forma la hamiltoniana
1
1
H = x21 + u2 + 1 x2 + 2 (u x1 )
2
2
2. Se minimiza H con relacion a todos los valores de u admisibles, para determinar u = u (x, , t). En este caso se separan los terminos en u de
H
1 2
u + 2 u
2
Si la se
nal de control no esta saturada, el mnimo se obtiene haciendo
H
=0
u
lo que da
u = 2
Por tanto, si | 2 (t) |< 1 entonces se adopta u = 2 ya que con ello se
esta en la zona no saturada de u). Si | 2 (t) |> 1 entonces, segun se ha
visto en el ejemplo anterior, el valor que minimiza H sera
u = sgn (2 )

Principio del Mnimo de Pontriagin

408

u (t)

2 (t)

Figura 16.8: Representacion de u


Por tanto u tiene la forma que se indica en la figura 16.8.
Para determinar 2 (t) se resuelven las ecuaciones
x1
x2
1
2

=
=
=
=

x2
x2 2
x1
1

con las condiciones de contorno que correspondan.

16.2

Control
optimo por conmutaci
on

16.2.1

Control en tiempo mnimo de un sistema de segundo orden

Supongase un movil sin rozamiento, cuyo movimiento esta controlado por una
fuerza u que esta acotada (|u| < 1). La ecuacion dinamica del movimiento es
d2 y
=u
dt2
que admite la representacion por variables de estado:
x1 = x2
x2 = u
y = x1

Principio del Mnimo de Pontriagin

409

El control en tiempo mnimo consiste en determinar en cada instante t, la fuerza


que hay que aplicar u(t) de manera que evolucione desde un estado inicial (x1 , x2 )
al origen (0, 0), en un tiempo mnimo.
El ndice de funcionamiento vendra dado por
J=

Z T
0

dt = T

(16.32)

por lo tanto, se tiene que,


L(x, u) = 1

(16.33)

En primer lugar se procede a formar la hamiltoniana


H = 1 + 1 x2 + 2 u
Es claro que H alcanzara el valor mnimo
si 2 < 0 haciendo u = +1
si 2 > 0 haciendo u = 1
es decir,
u (t) = sgn (2 (t))
por lo que la hamiltoniana minimizada resultara ser
H = 1 + 1 x2 2 sgn (2 )
Las ecuaciones adjuntas resultan ser en este caso

H
1 =
=0
x1
H
2 =
= 1
x2
cuya integracion conduce a
1 = k1
2 = k1 t + k2
Se observa que 2 es monotona (creciente o decreciente, seg
un los signos de k1 y
k2 ), por lo que cambiara de signo, a lo sumo, una sola vez. Por lo tanto u, o bien
tomara solo uno de los valores +1 o 1 hasta alcanzar el origen, o cambiara una
sola vez de valor antes de alcanzarlo.

Principio del Mnimo de Pontriagin

410

En cualquir caso, las u


nicas se
nales que se aplicaran al sistema seran + 1 o 1. Por lo tanto interesa estudiar como evoluciona el sistema cuando u = +1, y
cuando u = 1.
Para u = +1 se tiene,
x2 = t + c 1
t2
x1 =
+ c1 t + c2
2
es decir,
x22 = 2x1 + c3
siendo c3 = c21 2c2 . La anterior expresion puede representarse graficamente
como se hace en la figura 16.9a.
x2
t

x1

a)

A
B

u = +1

x2
t

x1

u = 1

b)

Figura 16.9:
La u
nica trayectoria que pasa por el origen es AO, luego sera por esta trayectoria por la que debera alcanzarse el origen.
Para u = 1 se demuestra analogamente que las trayectorias vienen dadas

Principio del Mnimo de Pontriagin

411

por
x2 = 2x1 + c4
lo que se representa graficamente en la figura 16.9b. Las mismas consideraciones
hechas anteriormente para la trayectoria AO valen aqu para la trayectoria BO.
Los resultados anteriores pueden resumirse en la figura 16.10.
x2

u = 1
B

x1

A
u = +1

Figura 16.10:
Del examen de esta figura se desprende que,
1. Si el estado inicial se encuentra sobre AO(BO) se aplica u = +1(u = 1)
y no se produce ninguna conmutacion.
2. Si el estado inicial se encuentra por debajo (por encima) de BOA se aplica
u = +1(u = 1) hasta que el estado, recorriendo la parabola correspondiente, alcance la lnea BO(AO) en cuyo caso se conmutara la se
nal de
mando haciendo u = 1(u = +1).
De acuerdo con lo anterior la curva de conmutacion vendra dada por
1
x 1 = x2 | x2 |
2
de manera que la ley de control sera,
u = sgn ()

Principio del Mnimo de Pontriagin


siendo,

412

1
= x1 x2 | x2 |
2

Esta ley de control puede realizarse practicamente con un esquema como el


de la figura 16.11.

yr = 0 +

+1

u0

1
s

-1

+
+

1
s

x1

| x2 |
1
2

x2

x2

+1

Figura 16.11: Ley de control


Debe observarse que, en cierta manera, lo que se ha hecho ha sido determinar
una ley de control, puesto que la se
nal de mando que se aplica en cada instante,
a partir de las consideraciones anteriores, depende u
nicamente del estado del
sistema.

16.2.2

Ejemplo 4: Problema del alunizaje suave

Determinar la ley de control optima que transfiera al modulo lunar (figura 16.12)
desde una posicion inicial (z(0), z(0),

M (0)) a la posicion final (0, 0, M (T )) con


un consumo mnimo de combustible. La se
nal de control u esta acotada por
0 < u < Q.
Soluci
on
Haciendo x1 = z, x2 = z,
las ecuaciones dinamicas del sistema se transforman
en
x1 = x2

(16.34)

Principio del Mnimo de Pontriagin

413

ku

Mg
z

Figura 16.12: Aterrizaje lunar


ku
M

x2 = g +

(16.35)

Observese que M depende del tiempo, de modo que


M (t) = M (0)
Se supone que

Z t
0

udt

M
M (T ) M (0)
=
M
M (0)

es muy peque
na, de modo que la expresion (16.35) puede considerarse correcta
en primera aproximacion. El criterio a minimizar es
J=

Z T
0

udt

por lo que

H = u + 1 x2 + 2
es decir

ku
g +
M

k2
H = 1 x2 2 g + u 1 +
R
M (0) 0t udt

Minimizando H respecto a u se observa que el control viene dado por

u = 0 si

k2
1+
R
M (0) 0t udt

>0

Principio del Mnimo de Pontriagin

u = Q si

414

k2
1+
R
M (0) 0t udt

<0

Las ecuaciones adjuntas son


H
= 0 1 = k1
1 =
x1
H
2 =
= 1 2 = k1 t + k2
x2
El que 2 crezca (o decrezca) linealmente con el tiempo implica que el signo de

k2
1+
R
M (0) 0t udt

cambie una vez como maximo, y por lo tanto u solo toma los valores 0 y Q una
sola vez en la trayectoria optima.
Cuando u = 0 (caida libre del modelo), las ecuaciones dinamicas toman la
forma:
x1 = x2
x2 = g
de donde se tiene
x2 = gt + x2 (0) = gt + z(0)

(16.36)

t2
+ z(0) + z(0)t

2
De la ecuacion (16.36) despejamos el tiempo
x1 = g

t=

(16.37)

z(0)

x2
g

y lo sustituimos en la ecuacion (16.37)


x1 = z(0) +

z 2 (0) x22

2g
2g

es decir,
x22 = z 2 (0) + 2g(z(0) x1 )
esta expresion da la familia de trayectorias en el plano de estado, en funcion de
las condiciones iniciales z(0), z(0).

Principio del Mnimo de Pontriagin

415

x2
z(0)
x1
z(0)

u=0

Figura 16.13:
En la figura 16.13 se representan las trayectorias correspondientes
Cuando u = Q
x 1 = x2
x 2 = g +

kQ
kQ
=
g
Rt
M (0) Qt
M (0) 0 udt

Integrando la segunda de las anteriores expresiones se tiene


x2 z(0)

= k (ln(M (0) Qt) ln M (0)) gt


lo que llevado a la primera
x1 = x2 = z(0)

k ln(M (0) Qt) + k ln M (0) gt


es decir

M (0)
Qt
Qt
t2
1
ln 1
g + k ln M (0)t
x1 z(0) = z(0)t

+k
Q
M (0)
M (0)
2
En el u
ltimo paso se ha tenido en cuenta que
Z

ln xdx = x ln x x
Las trayectorias en el plano de fase corresponden a curvas de la forma que se
indica en la figura 16.14.
La u
nica trayectoria que pasa por el origen es la AB, y es por lo tanto la curva
de conmutacion, como la se
nal u solo cambiaba de valor una vez en la trayectoria

Principio del Mnimo de Pontriagin

z(0)

416

z(0)
B

x1

CHOQUE
A
u=Q

x2

Figura 16.14:
optima, cualquier trayectoria del movil correspondera a una caida libre si se
encuentra por encima de la trayectoria AB. Las ecuaciones parametricas de la
trayectoria AB corresponden a

g
kM (0)
Q
z = 2 k =
ln 1
2
Q
M (0)

!
Q
z = g + k ln 1
M (0)

x2

u=Q
Zo
d
na

k=0

ho
ec

Choque
con
velocidad

x1
Zona de caida libre

qu
e

Linea de
conmutacion

Figura 16.15:
En la figura 16.15 se representa la evolucion conjunta de las representadas en
las figuras 16.13 y 16.14.

Tema 17
Principio de optimalidad de
Bellman
17.1

Introducci
on

Dado un criterio de optimalidad, las N se


nales de mando o decisiones que conducen el sistema del estado A al B, de acuerdo con este criterio, y a traves de
N pasos sucesivos, son tales que cualquiera que sea el estado C resultado de
aplicacion de la primera de ellas, las N 1 se
nales restantes dan lugar a una
trayectoria optima de C a B.
Al cumplirse lo anterior para el primer paso es evidente que se cumple para
cualquier paso intermedio.
Graficamente se interpreta en la figura 17.1, diciendo que si la trayectoria
AB es optima, lo mismo lo es la CB. Es decir una trayectoria optima tiene
la propiedad de que cualesquiera que sean el estado inicial y la primera accion
tomada sobre el sistema, las restantes acciones deben constituir una trayectoria
optima a partir del estado resultante de la primera accion.
Observese que se exige que B sea siempre el estado final. Es decir, que un
tramo de la trayectoria AB, que no acabe en B, no puede considerarse optimo.

417

Principio de optimalidad de Bellman

418

A
Figura 17.1: Principio de optimalidad: si la trayectoria AB es ooptima, tambien
lo es la CB.
Ejemplo
Se trata de determinar la trayectoria optima de A a P , en 6 etapas. Los tramos
de cada porcion de la primera trayectoria estan penalizados con un costo que se
representa en la figura 17.2 con un n
umero sobre el correspondiente tramo. El
criterio de optimalidad es el minimizar el costo total del recorrido.
Se considera en primer lugar la quinta y la sexta etapa (figura 17.3). En cada
uno de los nudos se escribe un n
umero rodeado por un circulo que representa
el coste mnimo del recorrido desde dicho nudo a P , supuesto por la trayectoria
optima.
Es evidente que desde N y O, al no haber opcion el correspondiente n
umero
sera el costo de la trayectoria. Lo mismo sucedera desde K y M , desde los que
las u
nicas trayectorias posibles son KN P y M OP , de costos 8 y 9 respectivamente. Sin embargo desde L dos trayectorias son posibles, la IN P y la LOP de
costos 7 y 8 respectivamente. Por lo tanto la optima sera la LN P y se encerrara
un 7 en el circulo correspondiente. Observese que a lo largo de la trayectoria
optima la diferencia entre los n
umeros encirclados es igual al costo del tramo
correspondiente. De la misma manera se puede estudiar la 4 etapa (figura 17.4).
Debe notarse que en este paso ya se obtiene un notable beneficio de los calculos
anteriores y que al, por ejemplo, calcular la trayectoria optima desde H, se tiene
en cuenta las trayectorias optimas desde K y desde L, y no se tiene que volver a
calcular todo el trayecto. De hecho lo que se hace es decidir entre HK y HL de

Principio de optimalidad de Bellman

419

G
6

4
D

B
2

1
A
7

I
C

3
O

6
M

F
5

9
J

Figura 17.2: Retculo de trayectos posibles entre A y P .

8
K

5
N
P

3
O

M
Figura 17.3: Las dos u
ltimas etapas para llegar a P .

Principio de optimalidad de Bellman

420

14
G

12
H

8
K

5
N
P

14
I

18

3
O

J
Figura 17.4: Las tres u
ltimas etapas para llegar a P .

Principio de optimalidad de Bellman

421

manera que la suma del costo correspondiente al nuevo tramo y el costo optimo
a K o a L (n
umero encirclado), sea mnimo.
Procediendo de esta manera se llega a cubrir todo el diagrama con los costos
mnimos desde los correspondientes nudos. De la figura 17.5 y de los anteriormente expuestos, se deduce que la trayectoria optima es la ABEHKN P .
14
G

18
16
17

12
H

14

8
K

5
N
P

17
C

14
I

15
F

18

3
O

Figura 17.5: Trayectoria optima de A a P .

17.1.1

Ejemplo de un sistema binario en tiempo discreto

Sea un sistema que admite una entrada u(k) que toma u


nicamente los valores 0
y 1, para todo k discreto. La ecuacion que gobierna la evolucion del mismo es
la siguiente:
x(k + 1) = x(k) + u(k)
(17.1)
Se trata de encontrar la secuencia u(k), k = 0, 1, 2, 3 que transfiera el estado del
sistema de x(0) = 2 a x(4) = 0 de manera que se minimice la funcion de costo
J=

3
X

| 5x(k) 3 |

(17.2)

t=0

Para una mejor comprension del metodo se empleara un diagrama sobre un plano
x y, en donde en el eje y se representa el estado del sistema (17.1) y en el eje
x el ndice k (figura 17.6).
En dicho diagrama se tienen unos circulos correspondientes a los distintos
pares (x, k) y unas flechas que los unen. Estas u
ltimas llevan asociados n
umeros
que representan el costo de la transicion de un punto a otro, y se calculan seg
un
(17.2). Este costo depende exclusivamente del estado previo.

Principio de optimalidad de Bellman


7

A
2

13

7
11

9
7

x(t)

422

B
t

Figura 17.6: Trayectorias posibles desde A hasta B.


En cuando a los circulos, tienen tambien n
umeros cuya generacion se va a ver

a continuacion. Estos n
umeros representan Ji (x).
En primer lugar, considerese k = 3, y J1 . Para los dos valores posibles de x,
x = 0 y x = 1 que conducen a B, los valores de J1 correspondientes son:
J1 (0) = 3
J1 (1) = 2
Puesto que no hay diferentes rutas desde los dos puntos no se requiere minimizacion.
Sea ahora k = 2. Los puntos en los que se puede iniciar el proceso son en este
caso x = 0, 1, 2. Para x = 0, 2 no existe problemas de adopcion de ruta pero para
x = 1 si es posible aplicar u = 0 o u = 1.
En tal caso se tiene,
J2 (1, 2) = min[2 + J1 ] = 4
u

De la misma forma se procede para t=1, resultando


J3 (0) = 9
J3 (1) = 6
J3 (2) = 11
y asimismo para k = 0, siendo en ese caso
J4 (2) = 13

(17.3)
(17.4)
(17.5)

Principio de optimalidad de Bellman

423

Una vez realizados los calculos anteriores la determinacion de la trayectoria


optima es ya un problema trivial. Los distintos tramos de la misma estaran

formados de acuerdo con la regla Ji (x1 ) Ji1


(x2 ) = costo de la transicion de x1
a x2 .
De acuerdo con este criterio, cuya interpretacion es obvia, se obtiene la trayectoria de trazo fuerte de la figura 17.7.
7

A
2

13

11

9
7

x(t)

B
t

Figura 17.7: Trayectoria optima entre A y B, en trazo grueso.

17.1.2

Programaci
on din
amica en tiempo discreto y Principio de Optimalidad

El ejemplo anterior admite la siguiente generalizacion. Sea un sistema dinamico


en tiempo discreto
x(k + 1) = f (x(k), u(k), k) (x(T ), T ) B
cuyo funcionamiento se pretende que optimece el criterio
J=

TX
1

L(x(k), u(k), k) + S(x(T ), T )

(17.6)

t0

En lugar de considerar el problema correspondiente con un estado e instante


inicial dados (x(t0 ), t0 ), vamos a considerar el problema mas general con un estado
y condiciones iniciales (x, t) arbitrarias. Para cada uno de estos problemas se
define la funcion
V (x, t) = min J
Es decir, para cada (x, t) la funcion V (x, t) nos da el coste optimo, desde
ese estado y tiempo. Si recordamos los dos ejemplos anteriores veremos que la

Principio de optimalidad de Bellman

424

funcion V (x, t) toma, en esos problemas, el valor que se representa en las figuras
17.5 y 17.6 en el interior de un peque
no crculo.
Para la aplicacion de la programacion dinamica, conviene observar, en primer
lugar, que el criterio (17.6) es aditivo. Debido precisamente a este caracter aditivo
y aplicando el principio de optimalidad de Bellman se tiene que
V (x, t) =

min

u(t),u(t+1),...

"T 1
X

L(x(k), u(k), k) + S(x(T ), T )

= min L(x(t), u(t), t) +


u(t)

min

u(t+1),u(t+2),...

TX
1

L(x(k), u(k), k) + S(x(T ), T )

t+1

es decir, el valor de V es el mnimo de la suma del primer paso que se toma desde
(x, t) mas el valor optimo desde el resultado de ese primer paso. Recuerdese como
se calculaban los n
umeros encirclados en los dos ejemplos anteriores. La anterior
expresion se puede escribir
V (x, t) = min [L(x(t), u(t), t) + V (f (x, u, t), t + 1)]
uU

Las condiciones en los lmites correspondientes al problema son


V (x, T ) = S(x(T ), T )
ademas, la ley de control optima se determina en cada etapa mediante la expresion
u(x, t) = arg min [L(x(t), u(t), t) + V (f (x, u, t), t + 1)]
uU

Conviene resaltar que este metodo nos ha conducido de manera natural a que
la solucion toma la forma de una ley de control, y no de una se
nal de control
como suceda en la solucion del control optimo mediante metodos variacionales.

17.2

Programaci
on din
amica y ecuaci
on de Hamilton-Jacobi-Bellman

Para sistemas en tiempo discreto, el principio de optimalidad de Bellman da lugar,


de una forma muy sencilla, a recurrencias que permiten determinar la secuencia
optima de se
nales de control, como hemos visto en los ejemplos anteriores. Para
sistemas en tiempo contnuo, el anterior principio puede aplicarse tambien. Con el

Principio de optimalidad de Bellman

425

fin de precisar la aplicacion del principio de optimalidad de Bellman a sistemas en


tiempo continuo supongase el problema de control optimo definido por el sistema
dinamico:
x = f (x, u)
(17.7)
y el criterio de funcionamiento:
J(x, u) =

Z T
0

L(x, u)dt + S(x(T ), T )

(17.8)

siendo
u U (x(T ), T ) B

(17.9)

Para sistemas en tiempo continuo el principio de optimalidad de Bellman


puede enunciarse de la forma siguiente:
Si u ( ) es optimo en el intervalo [t, T ], partiendo del estado x(t),
entonces u ( ) es necesariamente optimo en el subintervalo [t + t, T ]
para cualquier t tal que T t t > 0.
Graficamente puede interpretarse mediante la figura 17.8, en que se representa
la trayectoria optima que une el estado inicial (x, t) con el estado final (x(T ),T )
por medio de la curva AB.
x
x(T )

(x, t)
A
t

C
t + t

Figura 17.8: Trayectoria optima contnua de A a B.


Si inicialmente el sistema se encuentra en (x, t), al cabo de t unidades de
tiempo, el sistema se encontrara en el punto C. Seg
un el principio de optimalidad
de Bellman, si AB es una trayectoria optima, entonces CB sera a su vez otra
trayectoria optima.

Principio de optimalidad de Bellman

426

Demostraci
on
Se procede por contradiccion. Supongase que existe un u tal que de un valor
menor para
Z
T

t+t

L(x, u, )d + S(x(T ))

que el que daba u en el subintervalo [t + t, T ]. Considerese una nueva se


nal de
control u( ) dada por
(

u( ) =

u ( ),
u ( ),

para
para

t t + t
t + t T

(17.10)

Entonces en el intervalo [t, T ] se tendra

Z t+t
t

<

L(x , u , )d +

Z t+t
t

Z T
t+t
Z T

L(x , u , )d +

L(x , u , )d + S(x (T ))

t+t

L(x , u , )d + S(x (T ))

(17.11)

Pero se ha partido del supuesto de que u es optimo en el intervalo [t, T ], y


(17.11) implica que u dado por (17.10) da lugar a un valor para J menor que el
optimo. Lo que esta en contradiccion con el supuesto del que se haba partido.
Conviene observar que en las expresiones anteriores x denota la trayectoria
del estado correspondiente a la se
nal de control u , x la correspondiente a u y
x = x para = t + t, puesto que u y u son las mismas en el intervalo [t, T ].
La idea fundamental de la programacion dinamica consiste en separar la operacion de minimizacion en dos niveles, separacion que es lcita por las dos razones
siguientes:
el criterio J es aditivo con relacion a la trayectoria,
el comportamiento dinamico esta representado por una ecuacion diferencial
de primer orden.
Con el fin de aplicar el principio de optimalidad de Bellman conviene definir
la funcion:
V (x, t) = J (x, t)

Principio de optimalidad de Bellman

427

siendo J (x, t) el valor de la funcional J cuando se recorre la trayectoria optima


desde el estado (x, t). Por tanto:

V (x, t) = J (x, t) = umin


[t,T ]

"Z
T
t

L(x( ), u( )) d + S(x(T ), T )

con:
u[t,T ] = {u( )|t < T }
es decir, u[t,T ] es el conjunto de todas las acciones de control posibles en el intervalo
[t, T ].
Recordando la figura 17.8, tenemos que si el valor del funcional J para la
trayectoria optima que se inicia en (x, t) se representa por V (x, t), entonces el
valor de J para la trayectoria CB, vendra dado por V (x + x, t + t). Es decir,
V (x + x, t + t) es el coste mnimo del proceso para el intervalo (t + t, T ).
Ademas, por el principio de la optimalidad sabemos que si la trayectoria AB es
optima, tambien lo sera la trayectoria CB. Todo ello permite escribir
"Z

V (x, t) = min

u[t,T ]

t+t

"Z

L(x( ), u( ))dt + min

u[t+t,T ]

t+t

##

L(x, u, t)dt + S(x(T ), T )


(17.12)

es decir,
"Z

V (x(t), t) = min

u[t,T ]

t+t
t

L(x( ), u( ))d + V (x(t + t), t + t)

(17.13)

En esta u
ltima expresion se ha tenido en cuenta el que el valor mnimo V a
partir del estado x(t+t) en el tiempo t+t viene dado por V (x(t+t), t+t).
Conviene observar que empleando el principio de optimalidad, el problema a determinar el control optimo sobre el intervalo [t, T ] se ha reducido al de determinar
el control optimo sobre el intervalo reducido [t, t + t].
Aplicando el teorema de la media al primer miembro del segundo termino de
(17.13), se tendra
Z t+t
t

Ldt ' Lt

(17.14)

es decir,
V (x, t) = min[Lt + V (x + x, t + t)]
u( )

(17.15)

siendo u( ) la se
nal optima en el intervalo t t + t. Desarrollando en serie
V (x + x, t + t) en torno a (x, t) (en el supuesto de que tanto V como f sean

Principio de optimalidad de Bellman

428

suficientemente diferenciables ) se tendra,


V (x + x, t + t) = V (x, t) +

V
V
x +
t + ...
x
t

(17.16)

V
V
en donde
representa el vector gradiente de V con relacion a x, y
representa
x
t
la derivada parcial de V con relacion a t.
Llevando (17.16) a (17.15), y despreciando variaciones de orden superior, se
tiene
"
#
V
V
V (x, t) = min Lt + V (x, t) +
x +
t
(17.17)
u( )
x
t
V
t no estan afectados por la minimizacion (puesto que
t
no dependen de u( )) por lo que la expresion anterior se puede escribir:
Los terminos V (x, t) y

"

V
V
min Lt +
x +
t = 0
u( )
x
t

(17.18)

Dividiendo por t, haciendo t 0 se tiene:


#

"

V
V
x +
=0
min L(x, u, t) +
u(t)
x
t

(17.19)

Esta ecuacion se conoce bajo el nombre de ecuacion de Hamilton-JacobiBellman.


Para resolver la ecuacion de optimizacion (17.19) se procede en dos pasos. En
el primero se realiza la minimizacion indicada. Ello conduce a
"

V (x, t)
u(x, t) = arg min L(x, u, t) +
f (x, u, t)
u(x,t)
x

(17.20)

Es decir a una ley de control de la forma

V
, x, t
u =
x

(17.21)

El segundo consiste en sustituir (17.21) en (17.19) y resolver la ecuacion no


lineal en derivadas parciales
L(x, , t) +

V
V
f (x, , t) +
=0
x
t

(17.22)

Principio de optimalidad de Bellman

429

con las condiciones de contorno


V (x, T ) = S(x(T ), T )

(17.23)

sobre B.
Observando la expresion (17.22) y recordando la definicion hamiltoniana parece
apropiado escribir
H(x, , t) = L(x, , t) +

V
f (x, , t)
x

(17.24)

con lo que la expresion (17.22) puede escribirse


H(x, , t) +

V
=0
t

(17.25)

En general no es posible resolver analticamente esta ecuacion en derivadas


parciales. Sin embargo, en la seccion siguiente se presentara un caso general para
el que si tiene solucion. En el caso de que sea posible esta solucion y se determine
V , entonces se calcula el gradiente de V con respecto a x y se tiene la ley de
control optima por realimentacion del estado

V
u =
, x, t = k(x, t)
x

(17.26)

Debe observarse que la resolucion de la ecuacion de Hamilton-Jacobi-Bellman es


solo una condicion necesaria para la optimizacion.
Con vistas a las aplicaciones el metodo anteriormente expuesto se puede sintetizar en los siguientes cinco pasos:
1. Formar la hamiltoniana, sustituyendo por

V
H x, u,
x

V
.
x

=L+

V
f
x

(17.27)

V
, t con relacion a u U para obtener
2. Minimizar H x, u,
x

u =u

V
x,
x

(17.28)

Principio de optimalidad de Bellman

430

3. Determinar la hamiltoniana minimizada

V
x,
x

V
= H x, u ,
x

(17.29)

4. Resolver la ecuacion de Hamilton-Jacobi-Bellman que, con la introduccion


de la hamiltoniana minimizada, queda convertida en,

V
x,
x

V
=0
t

(17.30)

Esta ecuacion en derivadas parciales recibe la denominacion de ecuaci


on de
Hamilton-Jacobi. Esta ecuacion admite las condiciones de contorno dada
por la expresion (17.23).
5. Llevar los resultados de 4 a 2 para obtener la ley de control optima. Es
decir, una vez se ha determinado V (x, t) se puede determinar su gradiente
V
y llevarlo a la ecuacion (17.28) para obtener la ley de control optima
x
u (x, t).
Estos pasos se resumen en el cuadro siguiente:
Resumen de la aplicacion del metodo de Hamilton-Jacobi-Bellman
a la determinacion del Control Optimo

Principio de optimalidad de Bellman

431

Se da el sistema

x = f (x, u)

Se da el criterio

J=

Paso 1

Se forma la Hamiltoniana
!
V
V
, t = L(x, u) +
f (x, u)
H x, u,
x
x

RT
0

L(x, u)dt + S(x(T ), T )

Paso 2

Se determina u = u

minimice H x, u,

V
x,
, t admisible tal que
! x

V
, t con respecto a u U
x

Paso 3

Se determina
m!
nima

!la Hamiltoniana

V
V
H x,
, t = H x, u ,
,t
x
x

Paso 4

Se resuelve
el!sistema de ecuaciones en derivadas parciales

V
V
H x,
,t +
=0
x
t
con las condiciones de contorno V (x, T ) = S(x(T ), T ).
Se obtiene V (x, t).

Paso 5

Se determina u (x)

En general, la aplicacion del metodo anterior presenta dos dificultades que limitan
grandemente su empleo. En primer lugar, es generalmente imposible resolver
la ecuacion de Hamilton-Jacobi a
un para problemas sencillos, puesto que no se
conoce una tecnica general de resolucion para ese tipo de ecuaciones en derivadas
parciales. Por otra parte, a
un si la ecuacion de Hamilton-Jacobi puede resolverse,
la ley de control obtenida es normalmente muy dificil de realizar fsicamente.
Las anteriores razones hacen que, desde un punto de vista practico, sea mas
interesante el principio de Pontriagin que la ecuacion de Hamilton-Jacobi-Bellman

Principio de optimalidad de Bellman

432

en la resolucion del problema de control. Sin embargo, existe un caso para el que
el metodo de Hamilton-Jacobi-Bellman es el idoneo. Es el de la determinacion
de la ley de control para un sistema dinamico lineal invariante en el tiempo,
cuando el criterio de funcionamiento es cuadratico. Este problema es de por
s lo suficientemente interesante como para justificar el estudio del metodo de
Hamilton-Jacobi-Bellman.

Ejemplo 1
Determinar la ley de control optimo para el sistema
x = u
con el ndice

Z T

J=

(x2 + u2 )dt

1. Se forma la hamiltoniana
H = x 2 + u2 +

V
u
x

2. Se minimiza la hamiltoniana
H
V
= 2u +
=0
u
x
lo que da
u =

1 V
2 x

3. Se forma la hamiltoniana mnima


1
H =x
4

V
x

!2

4. Se tiene la ecuacion de Hamilton-Jacobi-Bellman


1
V
+ x2
t
4

V
x

!2

Con la condicion de contorno


V (x(T ), T ) = 0

=0

Principio de optimalidad de Bellman

433

Una forma de resolver la ecuacion de Hamilton-Jacobi-Bellman es asumir


una solucion, y comprobar si satisface la ecuacion y las condiciones de contorno. Supongase una solucion de la forma
V (x, t) = k(t)x2
en donde k(t) es una funcion a ser determinada. Se tendra
V
= 2k(t)x
x
V
2
= kx
t
Por tanto la ecuacion de Hamilton-Jacobi-Bellman se convierte en
2 + x2 1 (4k 2 x2 ) = 0
kx
4
es decir

k + 1 k 2 = 0

De V (T ) = 0 se tiene k(T ) = 0. La solucion es


k(t) = tanh(T t)
y, por tanto,
u = tanh(T t)x(t)

17.2.1

Relaci
on entre la programaci
on din
amica y la formulaci
on Hamiltoniana del problema de control

optimo

Recordemos la ecuacion de Hamilton-Jacobi-Bellman


"

V
V (x, t)
+ min L(x, u, t) +
f (x, u, t) = 0
u(t)
t
x

(17.31)

Si V es suficientemente diferenciable y suponiendo que el mnimo se alcanza


en un punto interior a U, la expresion anterior es equivalente a

L(x, u, t) +
f (x, u, t) = 0

L V f

+
=0
u

x u

Principio de optimalidad de Bellman

434

La segunda de estas expresiones caracteriza la ley u(x, t) que minimiza al hamiltoniano. En tal caso la primera de ella equivale a (17.31).
V
Interesa calcular como evoluciona el vector
a lo largo de una trayectoria
t
optima. Derivando con respecto al tiempo se tiene
d V
2V
2V
=
+ 2 f (x, u)
dt t
tx
x

(17.32)

Por otra parte, derivando (17.2.1) con relacion a x se obtiene


d V
2V
2V
L L u f V
V f u
=
+ 2 f (x, u) +
+
+
+
=0
dt t
tx
x
x
u x x x
x x x
de donde, teniendo en cuenta (17.2.1) y (17.32), se llega a
d V
f V
L
=

dt t
x x
x
Esta expresion es precisamente la ecuacion adjunta o de coestado del metodo
de Hamilton. Por tanto, a lo largo de una trayectoria optima se puede identificar
V
= (t)
t
con lo que se pone de manifiesto la equivalencia de ambos planteamientos. Esta
equivalencia resulta mas notable cuando se tiene en cuenta la diferencia de planteamientos de los que se ha partido.

17.3

Control de sistemas din


amicos lineales con
criterio cuadr
atico

17.3.1

Breve rese
na hist
orica

El problema del control lineal cuadratico tiene su origen en el trabajo de Norbert


Wiener sobre filtrado cuadratico medio para el control de ca
nones antiaereos durante la Segunda Guerra Mundial. Wiener empleo metodos basados en el dominio
de la frecuencia para resolver este problema. Sin embargo aporto como novedad
importante un desarrollo teorico que permita un metodo analtico para resolver
el problema de dise
no. Este plantemiento analtico contrastaba con los metodos

Principio de optimalidad de Bellman

435

de ensayos sucesivos con metodos graficos, basados en el criterio de estabilidad de


Niquyst, que entonces se empleaba. El metodo de Wiener permita ademas tener
en cuenta cuestiones tales como los ruidos de medida y otras perturbaciones de
caracter aleatorio.
Las ideas de Wiener fueron realaboradas durante los a
nos 50 empleando la
descripcion interna de los sistemas y condujeron a lo que hoy se conoce como
la teora del control lineal cuadratico, que va a ser el objeto de lo que sigue y
de los captulos siguientes. De acuerdo con esta teora el objetivo de un sistema
de control es el minimizar un ndice de funcionamiento cuadratico. Se trata de
mantener a este sistema en un estado lo mas cercano al de reposo x = 0. El costo
correspondiente a las desviaciones del estado de reposo se expresa por
J1 =

Z T
0

xT Qxdt + xT (T )Sx(T )

sujeto a las restricciones que representan un sistema lineal


x = Ax + Bu
Lo que recibe la denominacion de problema del regulador lineal cuadratico
o problema LQR (acronimo de Linear Quadratic Regulator). Su solucion, como
veremos luego, se reduce a la de una ecuacion diferencial de Ricatti. Durante el
perodo 1.960-70 se desarrollaron muchos estudios teoricos sobre este problema.
Las ventajas que presenta la solucion de este problema sobre las tecnicas de dise
no
clasicas son las siguientes:
Permite la optimizacion para intervalos de tiempo finito (los metodos en
el dominio de la frecuencia de Wiener estaban limitados a intervalos de
optimizacion infinitos);
son aplicables a sistemas que varan con el tiempo (los metodos en el dominio
de la frecuencia estan limitados a sistemas invariantes en el tiempo); y
permiten abordar de forma relativamente simple el problema de los sistemas
multivariables.
Sin embargo,la teora LQR no aborda dos cuestiones muy importantes que aparecen en el dise
no de sistemas de control realimentados: la falta de precision en el
modelo de la planta y los ruidos en los sensores. Ademas, la teora LQR presupone el conocimiento del estado del sistema que, como ya se puso de manifiesto
cuando se postulo la necesidad de los observadores, es frecuente que no este

Principio de optimalidad de Bellman

436

disponible. Como veremos en el captulo siguiente, el problema lineal-cuadratico


con perturbaciones aleatorias se reduce a la solucion de dos ecuaciones de Riccatti
desacopladas, ya que se puede demostrar que es posible separar este problema
en dos: el problema del control optimo con realimentacion del estado, tal como
se aborda en la teora LQR y el problema de la estimacion del estado. Esta
separacion puede justificar teoricamente en el caso de que las perturbaciones estocasticas sean gausianas, por lo que el problema lineal cuadratico estocastico se
conoce com
unmente como el problema lineal-cuadratico-gausiano (LQG).

17.3.2

Problema LQR

Sea un sistema dinamico lineal descrito por


x = Ax + Bu

(17.33)

Se trata de mantener a este sistema en un estado lo mas cercano al de reposo


x = 0. El costo correspondiente a las desviaciones del estado de reposo se expresa
por
Z
J1 =

xT Qxdt + xT (T )Sx(T )

(17.34)

Por otra parte, el costo de la aplicacion de una se


nal de mando u viene dado por
J2 =

Z T
0

uT Rudt

(17.35)

Las matrices Q y S son matrices semidefinidas positivas, y la matriz R es definida


positiva.
El problema consiste en determinar la se
nal u que debe aplicarse en cada
instante para que el costo total J1 +J2 sea mnimo. Es decir, se trata de minimizar
el funcional
Z T
J=
[xT Qx + uT Ru]dt + xT (T )Sx(T )
(17.36)
0

Se supone que T esta fijado de antemano, y que el estado final es libre.


Q y R son matrices simetricas que representan los costes de la desviacion del
estado y del esfuerzo de control respectivamente. En la mayora de las aplicaciones seran matrices diagonales, por lo que la funcionales J1 y J2 adoptaran
normalmente la forma:
J1 =

Z T
0

(q1 x21 + q2 x22 + + qn x2n ) dt

Principio de optimalidad de Bellman

J2 =

Z T
0

437

(r1 u21 + r2 u22 + + rm u2m ) dt

para un sistema con n variables de estado y m se


nales de entrada.
Si el sistema posee una sola entrada, entonces la matriz R se convierte en un
escalar, como es el caso de la planta que nos ocupa.
Por u
ltimo, pueden existir terminos de control terminal, que deberan ser de
la forma:
xT (T )Sx(T )
siendo S una matriz simetrica.
La hamiltoniana correspondiente a este problema es
V T
H = x Qx + u Ru +
(Ax + Bu)
x
T

Haciendo

(17.37)

H
=0
u

se obtiene

V
+ 2Ru = 0
x

(17.38)

1
V
u = R1 B T
2
x

(17.39)

BT
por lo tanto u (x, t) esta dado por

Llevando este valor de u a la hamiltoniana se tiene la hamiltoniana minimizada


que resulta ser,
H = xT Qx +

V T
1 V T
V
Ax
BR1 B T
x
4 x
x

(17.40)

La ecuacion de Hamilton-Jacobi-Bellman correspondiente es


V
V
V
1 V T
+
Ax
BR1 B T
+ xT Qx = O
t
x
4 x
x

(17.41)

con la condicion de contorno


V (x, T ) = xT Sx

(17.42)

Para la integracion de (17.41) es razonable adoptar (como ya se hizo, con buenos


resultados, en el ejemplo 1) una funcion de la forma:
V (x, t) = xT P (t)x

(17.43)

Principio de optimalidad de Bellman

438

siendo P (t) una matriz real simetrica. Llevando (17.43) a la ecuacion de HamiltonJacobi-Bellman (17.41) se tiene:
xT P x + 2xT P Ax xT P BR1 B T P x + xT Qx = 0
o lo que es lo mismo

xT P + 2P A P BR1 B T P + Q x = 0

(17.44)

La matriz entre parentesis no es simetrica, puesto que P A no lo es. Se sabe que


toda matriz M puede escribirse:
M = Ms + Ma

(17.45)

en donde Ms es simetrica (es decir, Ms = MsT ) y Ma es antisimetrica (es decir,


Ma = MaT ). Para demostrar (17.45) basta sumar y restar M T /2 a M , con lo
que se tiene
M
MT
M
MT
M=
+
+

2
2
2
2
y comprobar que
M
MT
Ms =
+
2
2
es simetrica y
M
MT
Ma =

2
2
antisimetrica. De (17.45) se tiene que
xT M x = xT Ms x + xT Ma x

(17.46)

Pero, puesto que (17.46) es un escalar, y


xT Ma x = xT MaT x = xT Ma x
se tendra que
xT M x = xT Ms x
Lo que equivale a decir que la matriz M asociada a una forma cuadratica puede
escojerse simetrica.
Ademas, sabemos que la parte simetrica de una matriz M viene dada por:
Ms =

M + MT
2

Principio de optimalidad de Bellman

439

Por tanto, toda forma cuadratica xT M x puede escribirse:


xT M s x = xT

M + MT
x
2

Aplicando estas consideraciones a (17.44), para el caso M = P A, se llega a la


siguiente ecuacion:
P + AT P + P A P BR1 B T P + Q = 0

(17.47)

P (T ) = S
que recibe la denominacion de ecuacion de Riccati. La resolucion de esta ecuacion
permite obtener P (t), o, lo que es lo mismo
V (x, t) = xT P (t)x
La ecuacion (17.47) es simetrica, como tambien lo es la matriz S que define las
condiciones de contorno, por lo que tambien lo sera la solucion P (t). Esta simetra
sirve para simplificar el calculo de P (t). En efecto, a primera vista puede parecer
que la expresion (17.47) representa un conjunto de n2 ecuaciones diferenciales,
ya que P (t) es una matriz n n. Sin embargo, debido a la simetra de P (t) el
n
umero de ecuaciones es en realidad de n(n + 1)/2.
Otra propiedad importante de P (t) es su caracter definido positivo. Ello se
debe a que para todo u(t) 6= 0 el valor de J (el coste del proceso) debe ser positivo,
y por tanto as debe ser V (x, t) = xT P (t)x, lo que impone el caracter definido
positivo de P (t).
Una vez determinado V (x, t) se procede a determinar la ley de control optima,
que resulta ser:
1
V
u (x, t) = R1 B T
= R1 B T P x
(17.48)
2
x
El resultado ha sido pues, una ley de control lineal, que se ha obtenido a partir
de la imposicion de un criterio de mnima varianza en las variables de estado y
en el esfuerzo de control.
Para encontrar la solucion de la ecuaci
on de Riccati sera necesario imponer
condiciones de contorno en P , que se obtendran de los terminos de control terminal:
Si J posee terminos de control terminal, entonces P (T ) = S.
Si no existen dichos terminos, entonces P (T ) = 0.

Principio de optimalidad de Bellman

440

Un caso especialmente interesante es aquel en que T tienda a . Entonces


se dice que el problema tiene horizonte infinito. En tal caso, la matriz P se
convierte en constante. En efecto, para cualquier par de instantes iniciales t1 y
t2 , los valores tomados por V (x, t1 ) y V (x, t2 ) son iguales. Esto u
ltimo es evidente
ya que tanto el sistema como el ndice de funcionamiento son invariantes en el
tiempo, y por consiguiente una traslacion finita en la escala de tiempos no debe
afectar al problema (nos va a costar tanto llegar al infinito desde ahora que desde
dentro de media hoira). Por tanto, la matriz P es constante.
La matriz P puede determinarse resolviendo la siguiente ecuacion
AT P + P A P BR1 B T P + Q = 0

(17.49)

la cual se obtiene de la expresion (17.47), haciendo P = 0. Esta ecuacion recibe


la denominacion de ecuacion de Riccati degenerada.
La solucion de la ecuacion (17.49) no es u
nica ya que es una ecuacion del
segundo grado en P . Sin embargo, si se impone la condicion de que P sea definida
positiva, entonces la solucion es u
nica.
Tendremos, por tanto, una regulacion mediante realimentacion de variables
de estado, con una ley de control lineal y constante en el tiempo.
u = Kc x
siendo
Kc = R1 B T P

(17.50)

Debe observarse en las expresiones anteriores que la ley de control optimo que
se ha determinado es una ley de control lineal. Este es un resultado que ya se
haba obtenido, a partir de otros supuestos, al estudiar el control de sistemas
lineales para su estabilizacion. La estructura que se obtiene aqu, que es la que se
representa en la figura 17.9, es la misma que se encontro all. Esta identidad de
estructuras constituye uno de los puntos mas sobresalientes de la moderna teora
del control.

Ejemplo 2
Ejemplo
Supongase el sistema dinamico
x = u

Principio de optimalidad de Bellman


y el criterio a minimizar
J=

441

Z T
0

(x2 + u2 )dt

De acuerdo con ello tiene que


A = S = [0] B = Q = R = [1]
Por lo que la ecuacion de Ricati que debe resolverse es
P + 1 P 2 = 0 P (T ) = 0
Esta ecuacion diferencial puede resolverse por separacion de variables. Su
solucion es
1 e2(T t)
P (t) =
1 + e2(T t)
Por lo que la ley de control optima resulta ser
u = P (t)x(t)

Ejemplo 3
Determinar los coeficientes de la ley de control para el sistema
x = 3x + u
siendo
J=

Z
0

(x2 + 0.1u2 )dt

Por tanto, se tiene


A = 3 B = 1 Q = 1 R = 0.1
luego la ecuacion de Ricatti es
6P 10P 2 + 1 = 0
y, en consecuencia, P = 0.1359 Por otra parte,
Kc =

P
= 1.359
0.1

luego
u = 1.359x

Principio de optimalidad de Bellman

442

Ejemplo 3
Determinar los coeficientes de la ley de Control para el sistema
"

0
1
2 1

x =
si

J=
"
T

A P =
"

PA =

Z
0

P BR

"

x+

0
2

(x21 + u2 )dt

2p12
2p22
p11 p12 p12 p22
2p12 p11 p12
2p22 p12 p22
"

B P =
"

Q=

4p212 4p12 p22


4p12 p22 4p222
1 0
0 0

La ecuacion de Riccati
AT P + P A P B R1 B T P + Q = 0
da lugar a tres ecuaciones,
2p12 2p12 4p212 + 1 = 0

(17.51)

2p22 + p11 p12 412 p22 = 0

(17.52)

2(p12 p22 ) 4p222 = 0

(17.53)

De (17.51) se tiene
4p212 + 4p12 1 = 0
cuya u
nica solucion positiva es
p12 = 0.20710
llevada a (17.53) se tiene
4p222 + 2p22 2p12 = 0
cuya u
nica solucion positiva es
p22 = 0.15311

Principio de optimalidad de Bellman

443

Eliminando p11 de (17.52) se tiene,


p11 = 4p12 p22 + 2p22 + p12 = 0.64016
Por tanto,

"

P =

0.64016 0.20710
0.20710 0.15311

Kc = R1 B T P = [0.41420 0.30622]
"

u = [0.41420 0.306322]

x1
x2

R1 B T P

Figura 17.9: Estructura de control de un sistema lineal con criterio cuadratico


Una notable propiedad que tiene el sistema de control representado en la
figura 17.9 es que es estable. En efecto, el sistema en bucle cerrado que resulta
de aplicar la ley de control (17.48) viene dado por:
x = (A + BKc )x

(17.54)

ecuacion que rige la evolucion del estado en bucle cerrado. Es facil ver que la
funcion
V (x) = xT P x
(17.55)
es una funcion de Liapunov para este sistema. En efecto, en primer lugar se tiene
que puesto que P es definida positiva, V (x) lo sera a su vez. Por otra parte se
tiene que
dV
= (x T P x + xT P x)

(17.56)
dt

Principio de optimalidad de Bellman

444

teniendo presente las expresiones (17.54) y (17.49) se tiene


dV
= xT (Q + P BR1 B T P )x
dt

(17.57)

es decir que dV /dt < 0 para todo x. Es decir V (x) cumple las propiedades que
definen una funcion de Liapunov y, por lo tanto, el sistema es estable. Puesto
que P BR1 B T P es definida no negativa entonces para que dV /dt < 0 la matriz
Q tiene que ser definida positiva. Es decir, si Q es definida positiva entonces la
estabilidad asintotica esta garantizada.
La aplicacion del anterior resultado requiere algunas matizaciones. En particular, conviene resaltar el hecho de que se requiere que Q sea positiva definida.
Considerese el sistema
x = x + u
con el ndice de funcionamiento
1Z 2
J=
u dt
2 0

(17.58)

En este ndice de funcionamiento conviene observar que no existen terminos en


x (en tal caso es evidente que Q = 0 por lo que Q no es positiva definida, sino
definida no negativa). Quiere ello decir que se pondera u
nicamente el coste de
actuacion y no el coste de comportamiento. Este tipo de situacion no es com
un
en las aplicaciones. No obstante, y a los efectos formales que aqu interesan,
vamos a continuar analizando este ejemplo. La solucion optima existe y es obviamente u = 0. Lo cual quiere decir que en un sistema en el que lo u
nico que
se penaliza es el coste de actuacion, y no se establecen especificaciones respecto
al funcionamiento, lo mejor es no hacer nada. Pero siguiendo con los aspectos
formales sucede que aplicando esa se
nal (o ley) de control el sistema en bucle
cerrado resulta ser
x = x
que es inestable. Esta inestabilidad es debida a que la trayectoria inestable et
no contribuye al ndice de funcionamiento. Es decir, no se manifiesta en (17.58).
Se puede decir que los estados inestables no son observados por el ndice de funcionamiento. Ello es debido aunque el sistema es controlable, no es ni observable
ni detectable, ya que el modo inestable et no es observable. Conviene recordar
que un sistema se dice detectable si los modos inestables son observables.
Si todas las trayectorias, o al menos las inestables, son detectadas en la
parte xT Qx del integrando del ndice de funcionamiento, entonces la estabilidad asintotica del sistema de control optimo realimentado queda a garantizar, ya
que si algunas de estas variables de estado no convergen a cero el coste optimo

Principio de optimalidad de Bellman

445

J sera infinito. Todas las trayectorias del sistema se detectaran en xT Qx si Q


es definida positiva. Por tanto el caracter definido positivo de Q es una condicion
suficiente para la estabilidad asintotica del regulador optimo.
Es posible, sin embargo, encontrar una condicion menos restrictiva. Supongamos que Q es simplemente definida no negativa (lo que no es extra
no en la
practica, como se vera en el ejemplo mas abajo). La propiedad de estabilidad
asintotica del sistema en bucle cerrado se conservara si todas las trayectorias se
detectan en la parte xT Qx del integrando del ndice de funcionamiento. Este
recibimiento se cumple si el par (A, D) es completamente observable, en donde
D es cualquier matriz tal que DT D = Q.
Para que el sistema sea estable se rquiere que V 0, estando V dado por
la ecuacion (17.57). Supongase que V es identicamente nulo a lo largo de una
trayectoria que se inicia en un estado inicial no nulo x(0). Entonces xT Qx y
xT P BR1 B T P x son identicamente nulos y R1 B T P x, el control optimo para
el sistema en bucle cerrado, es tambien identicamente nulo. Por consiguiente, las
trayectorias del sistema en bucle cerrado son las mismas que las del sistema en
bucle abierto, que estan dadas por
x(t) = eAt x(0)
ahora bien
T

xT Qx = xT (0)eA t QeAt x(0)


T

= xT (0)eA t DT DeAt x(0)


debe ser identicamente nulo. Esto contradice la hipotesis de que el par (A, D)
es completamente observable, ya que la observabilidad de (A, D) implica que
DeAt x(0) para alg
un t [0, ) si y solo si x(0) = 0. En consecuencia es imposible

tener V identicamente nulo a lo largo de una trayectoria que se inicie en un estado


no nulo. Con ello queda garantizada la estabilidad asintotica del sistema en bucle
cerrado para este caso.
Se define la salida sintetica como
y = Dx

(17.59)

La observabilidad del par (A, D) implica que el sistema dado por las ecuaciones
(17.33) y (17.59) es completamente observable.

Principio de optimalidad de Bellman

446

Ejemplo
Sea el sistema

"

x =

0 1
0 0

"

x+

0
1

que se pretende que minimice el ndice de funcionamiento


J=
En este caso se tiene
"

A=

0 1
0 0

Z
0

"

B=

0
1

(x21 + u2 )dt

"

Q=

1 0
0 0

R = [2]

La matriz D es tal que DT D = Q siendo


h
i
D=
2 0
Es inmediato comprobar que (A, D) es observable. En consecuencia el sistema
optimo en bucle cerrado sera asintoticamente estable. En efecto, resolviendo la
correspondiente ecuacion de Riccati tiene que
#
"
2 2
2
P =
2 2 2
de modo que la ley de control viene dada por
"
#"
#

1
2
2
2
x
1

u (t) = [0 1]
= x1 2x2
x2
2 2 2
2
que se puede comprobar que efectivamente da lugar a un sistema estable.

17.4

Ecuaci
on de Riccati en el dominio de la
frecuencia

Vamos a modificar seguidamente la ecuaci


on de Riccati, de forma que los resultados que esta nos proporcione sean expresiones en terminos de funcion de transferencia. Este planteamiento es totalmente analogo a la forma en que la hemos
utilizado anteriormente, y los resultados a los que conduce son equivalentes.

Principio de optimalidad de Bellman

447

Sea el sistema
x(t)

= Ax(t) + Bu(t)
donde u es de dimension 1, sometido al criterio de funcionamiento:
J=

Z
0

(xT Qx + ru2 )dt

Suponemos r = 1 sin perdida de generalidad, ya que podemos englobarlo en los


coeficientes de Q. La solucion a este problema es una ley de control lineal dada
por:
u = kc x
siendo
kc = B T P

(17.60)

P se obtiene de la ecuaci
on de Riccati:
AT P + P A P BR1 B T P + Q = 0
Reordenando esta ecuacion y teniendo en cuenta que R = 1:
P A AT P = Q P BB T P
Sumando y restando P s al primer miembro se tiene:
P (sI A) + (sI AT )P = Q P BB T P
Recordando la matriz de transicion entre estados (s) = (sI A)1 y la expresion
(17.60) se tiene:
P 1 (s) + (T )1 (s)P = Q kcT kc
Premultiplicando por B T T (s) y postmultiplicando por (s)B:
B T T (s)P 1 (s)(s) B + B T T (s)(T )1 (s) P (s)B =
|

B T T (s)[Q

{z

{z

I
T
kc kc ](s)B

T
B T T (s) P
B +B
|{z}
| {zP} (s)B =
kcT

kc

B T T (s)Q(s)B B T T (s)kcT kc (s)B


La funcion de transferencia en bucle abierto cuando se aplica la ley de control
(figura 17.10) es G(s) = kc (s)B = B T T (s)kcT , luego tenemos:
G(s) + G(s) = B T T (s)Q(s)B G(s)G(s)

Principio de optimalidad de Bellman

448

(s)

Figura 17.10: Bucle abierto con realimentacion del estado.


que se puede reescribir de la forma:
[1 + G(s)][1 + G(s)] = 1 + B T T (s)Q(s)B

(17.61)

Definimos: F (s) 1 + G(s). F (s) se conoce como la funci


on de diferencia del
retorno. Ahora supongamos el segundo miembro factorizado de la forma:
1 + B T T (s)Q(s)B = (s)(s)

(17.62)

entonces:
F (s)F (s) = (s)(s)
y por tanto:
F (s) = (s)
llegamos a la expresion que nos da la funcion de transferencia del sistema con la
realimentacion de las variables de estado:
G(s) = (s) 1
Debe observarse que mediante la factorizacion (17.62) se resuelve la ecuacion de
Riccati, aunque lo que se obtiene ahora es G(s), lo cual es equivalente a determinar
kc , ya que ambas vienen relacionadas por la expresion G(s) = kc B. Por tanto,
la factorizacion (17.62) equivale a la resolucion de la ecuacion de Riccati. Con
otras palabras, la factorizacion (17.62) permite resolver la ecuacion de Riccati en
el dominio de Laplace.

Ejemplo
En este ejemplo se va a mostrar el empleo de la ecuacion de Riccati en el dominio
de la frecuencia para la determinacion de la ley de control. Sea el sistema
x = x + u

Principio de optimalidad de Bellman


y el criterio
J=

449

Z
0

(3x2 + u2 )dt

En primer lugar el problema se va a resolver mediante la ecuacion de Riccati, tal


como se ha visto en la seccion anterior. Para este problema se tiene que
A = 1 B = 1 Q = 3 R = 1
por lo que la ecuacion de Riccati correspondiente resulta ser
p p p2 + 3 = 0
es decir,
p2 + 2p 3 = 0
cuyas soluciones son p1,2 = 1, 3, por lo que la constante de la ley de control
resulta ser k = 1.
Vamos ahora a resolver el problema mediante la ecuacion de Riccati en el
dominio de la frecuencia. En primer lugar, se tiene que para este problema
(s) =

1
s+1

por lo que el primer miembro de la expresion (17.62) tomara la forma


1 + B T T (s)Q(s)B = 1 +

3
3 + (1 s)(1 + s)
=
(1 s)(1 + s)
(1 s)(1 + s)

cuyo numerador se puede escribir


3 + (1 s)(1 + s) = 4 s2 = (2 s)(2 + s)
y por tanto

(2 s)(2 + s)
= (s)(s)
(1 s)(1 + s)

es decir
(s) =

2+s
1+s

En consecuencia

2+s
1
1=
1+s
s+1
por lo que se obtiene el mismo valor para k que se obtuvo anteriormente.
G(s) = (s) 1 =

Conviene observar que aunque en este ejemplo, al ser de dimension uno, el


segundo metodo empleado aparentemente es mas laborioso que el primero, no

Principio de optimalidad de Bellman

450

sucede lo mismo para sistemas de dimension mayor, por lo que el segundo metodo
es el habitualmente empleado para determinar la ley de control, ya que para el
u
nico problema para el que se requieren metodos numericos elaborados que es la
factorizacion, se dispone de soluciones informaticamente deficientes.
2
Por otra parte, de la expresion (17.61) se deduce que los reguladores LQR
presentan una robustez excelente. En efecto, si factorizamos Q de la forma Q =
H T H y hacemos s = j en (17.61) se obtiene:
k1 + G(j)k2 = 1 + kH(j)Bk2
de donde:
k1 + G(j)k > 1
Si interpretamos esta condicion en el plano polar, la curva de G(j) no puede
entrar dentro de un circulo de centro 1 y radio 1, por lo que aseguramos un
margen de fase mayor de 60 grados y un margen de ganancia infinito.

17.5

Resoluci
on del problema LQR

La solucion dada al problema del control optimo con criterio cuadratico de un


sistema lineal. Este problema tiene un importante interes tanto teorico como
practico, ya que, como se ha visto posee las tres notables propiedades siguientes:
La adopcion de la estructura de realimentacion viene determinada por la
solucion del problema, y no por un presupuesto previo (como sucede en los
metodos clasicos y en los de variables de estado).
La estabilidad del sistema en bucle cerrado esta garantizada.
La robustez del sistema tambien esta garantizada por el amplio margen de
fase que posee.
El problema LQR, tal como ha sido resuelto, supone que todas las variables
de estado son accesibles. Esto no siempre es as y cuando no lo son hay que
proceder, al menos, a estimarlas. Es lo que se hace con los metodos que veremos
en el proximo tema.

Principio de optimalidad de Bellman

451

Resumen del problema lqr

Se da el sistema

x(t)

= Ax(t) + Bu(t)

y el criterio de funcionamiento

J=

Ley de control ptima

u (t) = Kc x(t)

siendo

Kc = R1 B T P

Ecuacin de Riccati

AT P + P A P BR1 B T P + Q = 0

Valor optimo de J

J = 12 xT (t)P x(t)

R
0

[xT Qx + uT Ru]dt + xT (T )Sx(T )

Tema 18
Estimaci
on del estado
18.1

Noci
on de se
nal aleatoria

Se define una variable aleatoria como aquella que, como resultado de un ensayo,
toma un cierto valor imprevisible exactamente y dentro de un conjunto de valores
permitidos. Para caracterizar completamente una variable aleatoria es necesario
definir el conjunto de valores posibles, as como la probabilidad de cada uno de
ellos. Esta caracterstica reciben el nombre de ley de distribucion. Estos conceptos
se suponen conocidos y se recuerdan aqu a ttulo de revision.
Supongase una variable aleatoria que vara con el tiempo, como, por ejemplo,
el error de medida de una cierta magnitud que se dibuja continuamente en un
registrador grafico. El resultado de una prueba o ensayo es una medida que es
funcion del tiempo. Una variable aleatoria de esta naturaleza se llama una se
nal
aleatoria o proceso estocastico.
Una se
nal aleatoria se define, en consecuencia, como una variable funcion del
tiempo, tal que, para cada valor del argumento, o para cada conjunto de valores,
se comporta como una variable aleatoria (18.1).
Para un cierto valor de t, el valor de la se
nal aleatoria x(t) es una variable
aleatoria, para la que se puede definir una ley de distribucion. Estas leyes de
distribucion reciben el nombre de distribuciones unidimensionales y se especifican
por medio de la funcion de densidad de probabilidad unidimensional p1 (x; t), que
en principio depende de t.

452

Estimacion del estado

453

0
t1

t1

t1
t

Figura 18.1: Se
nal aleatoria
De la misma manera y teniendo presente dos instantes de tiempo t1 y t2 se
definen las distribuciones bidimensionales y la correspondiente funcion de densidad de probabilidad p2 (x1 , x2 ; t1 , t2 ) Lo anterior se puede generalizar para n
instantes de tiempo, en cuyo caso se tiene la funcion de densidad de probabilidad
pn (x1 , ..., xn ; t1 ..., tn ). Un proceso estocastico se dice estacionario si
p1 (x, t) = p1 (x)
p2 (x1 , x2 ; t1 , t2 ) = p2 (x1 , x2 ; t2 t1 )
En realidad la estacionaridad as definida no es la mas general que cabe concebir
pero sin embargo es suficiente a los efectos aqu interesan. Para un proceso estacionario sus caractersticas estadsticas son invariantes por traslacion temporal.

18.1.1

Descripci
on estadstica de las se
nales aleatorias

Las caractersticas de una se


nal aleatoria que aqu se van a considerar son su
media, su covarianza y su funcion de autocorrelacion. La media se define como
mx (t) = E[x(t)] =

xp1 (x; t)dx

(18.1)

en donde E representa la esperanza matematica. Si el proceso es estacionario su


media permanece constante al variar el tiempo; es decir, se tiene E[x(t)] = mx
constante. La media de un proceso estacionario se puede tambien definir como
1 ZT
mx = lim
xdt
T 2T T

(18.2)

Estimacion del estado

454

Si (18.1) y (18.2) conducen al mismo resultado el proceso se llama ergodico. En lo


que sigue los procesos que se consideraran seran ergodicos. Se define la covarianza
de una se
nal aleatoria x(t) como:
E[(x(t) mx (t))(x( ) mx ( ))] =

Z Z

(x1 (t) mx (t))(x2 ( ) mx ( ))p(x1 , x2 ; t, )dx1 dx2

Por u
ltimo, la funcion de autocorrelacion se define como
E[x(t)x( )] =

Z Z

x1 (t)x2 ( )p(x1 , x2 ; t, )dx1 dx2

para procesos estacionarios la funcion de autocorrelacion se reduce a


1 ZT
x(t)x(t + )d
E[x(t)x(t + )] = xx ( ) = lim
t 2T T
Ejemplo
Sea la se
nal aleatoria definida por las siguientes propiedades.
1. Solo toma dos valores +a y a
2. Permanece en uno de estos valores durante un tiempo pasado el cual cambia
1
al otro o permanecen en aquel con probabilidad .
2
El aspecto de esta se
nal x(t) es la de la figura 18.2.
La media de esta se
nal es E[x(t)] = 0. Para determinar la funcion de autocorrelacion se procede en dos pasos.
1. | |> En tal caso es evidente que xx = 0.
T | |
, las
T
se
nales x(t) y x(t + ) toman el mismo valor, y por lo tanto su producto es
igual a2 .

2. | | Se ve en la figura que durante una fraccion de tiempo

Durante el resto del periodo, es decir durante una fraccion de tiempo


producto toma el valor +a2 o a2 , con probabilidad 12 .

,
T

el

Estimacion del estado

455

x(t)

a)

+1
0

2 3

-1

Rxx ( )

b)

Figura 18.2: Se
nal aleatoria binaria
De lo anterior se deduce
E[x(t)x(t + )] = a2

T | |
| |
| |
+ a2
a2
T
2T
2T

es decir

xx ( ) = a

| |
1
T

Esta se
nal constituye una aproximacion a una se
nal de gran interes, que es la
se
nal blanca, que por definicion es aquella cuya funcion de autocorrelacion es un
impulso de Dirac, es decir,
bb = A(t)
Esta se
nal no se presenta nunca en la practica con las propiedades teoricamente
exigidas. Solo se tienen aproximaciones de las cuales la se
nal binaria considerada
constituye una de las mas interesantes.
Una propiedad interesante de la funcion de autocorrelacion de un proceso
estacionario es
xx ( ) = xx ( )
Interesa definir tambien la funcion de la intercorrelacion, o de correlacion cruzada,
entre dos se
nales aleatorias:
1 ZT
x(t)y(t + )dt
E[x(t)y(t + )] = xy ( ) = lim
t 2T T

Estimacion del estado

18.2

456

Transmisi
on de se
nales aleatorias a trav
es
de sistemas lineales: descripci
on interna

Vamos a estudiar en esta seccion el comportamiento de la salida de un sistema


lineal, cuando es excitado con una se
nal aleatoria, cuya descripcion estadstica es
conocida. Sea el sistema dinamico lineal
x(t)

= Ax(t) + Bw(t)

(18.3)

excitado por un ruido blanco estacionario w(t) de caractersticas


E[w(t)] = 0
E[w(t)wT ( )] = Q(t )
tal que Q 0. Q recibe tambien la denominacion de intensidad del ruido.
Las condiciones iniciales vienen especificadas mediante un vector aleatorio
gausiano x(t0 ), independiente de w(t) y con media x0 y covarianza P0 ; es decir:
E[x(t0 )] = x0

(18.4)

E[(x(t0 ) x0 )(x(t0 ) x0 )T ] = P0

(18.5)

E[x(t0 )w (t)] = 0 t

(18.6)

La trayectoria de x(t), de acuerdo con (18.3), viene dada por:


x(t) = (t)x(t0 ) +

Z t
t0

(t )Bw( )d

(18.7)

Por tanto, se tiene que la evolucion de la media de x(t) vendra dada por:
E[x(t)] = E[(t)x(t0 )] + E
= (t)E[x(t0 )] +

Z t

Z t
t0

t0

(t )Bw( )d

(t )BE[w( )]d

= (t)
x0

(18.8)

Por otra parte, para determinar la matriz de covarianza del vector x(t) vamos a
estudiar, en primer lugar la evolucion de:
P 0 (t) = E[x(t)xT (t)]
Derivando esta expresion con relacion al tiempo se obtiene:
T
P 0 (t) = E[x(t)x

(t) + x(t)x T (t)]

(18.9)

Estimacion del estado

457

Recordando (18.3) se tiene:


P 0 (t) = E[Ax(t)xT (t) + Bw(t)xT (t) + x(t)xT (t)AT + x(t)wT (t)B T ]
= AP 0 (t) + P 0 (t)AT + E[Bw(t)xT (t) + x(t)wT (t)B T ]
Y recordando, a su vez, (18.7), se tiene:
P 0 (t) = AP 0 (t) + P 0 (t)AT
"

+ E Bw(t) (t)x(t0 ) +

+ E

(t)x(t0 ) +

Z t
t0

Z t
t0

T #

(t )Bw( )d

(t )Bw( )d w (t)B

Conmutando el operador esperanza matematica y la integracion se tiene:


P 0 (t) = AP 0 (t) + P 0 (t)AT
+ BE[w(t)xT (t0 )]T (t)
Z t

t0

BE[w(t)wT ( )]B T T (t )d

+ (t)BE[x(t0 )wT ( )]B T


Z t

t0

(t )BE[w( )wT (t)]B T d

Teniendo en cuenta las caractersticas de las se


nales w(t) y x(t) la anterior expresion conduce a:
P 0 (t) = AP 0 (t) + P 0 (t)AT
+ BE[w(t)xT (t0 )]T (t)
+

Z t
t0

BQ(t )B T T (t )d

(18.10)

+ (t)BE[x(t0 )wT (t)]B T


+

Z t
t0

(t )BQ( t)B T d

= AP 0 (t) + P 0 (t)AT + BQB T

(18.11)
(18.12)

Para el paso de (18.11) a (18.12) hay que tener presente, por una parte que los
terminos segundo y cuarto se anulan de acuerdo con (18.6). Por otra parte, por
lo que respecta a los terminos tercero y quinto, hay que tener presente que la
funcion aqu es simetrica y que (0) = I. La funcion simetrica tiene las
siguientes propiedades:
(t ) = ( t)

Estimacion del estado

Rb
a

458
(

f ( )( t)d =

0
f (t)

si t < a o si t > b
si a < t < b

En tal caso, si el valor de t coincide con uno de los lmites de integracion, por
ejemplo t = b, se tiene que
Z b

f (b)
2
a
puesto que el area unidad que cubre la funcion se distribuye la mitad a la
derecha de t = y la otra mitad a su izquierda. Observese que de acuerdo con
los lmites de integracion, los miembros tercero y quinto de (18.11) aportan solo
1/2.
f ( )( b)d =

La ecuacion (18.12) tiene las condiciones iniciales:


P 0 (t0 ) = E[x(t0 )xT (t0 )]
A partir de los resultados anteriores es posible determinar la evolucion de la
matriz de covarianza:
P (t) = E[(x(t) x(t))(x(t) xT (t))]

(18.13)

En efecto, definiendo x(t) = x(t) x(t) (es decir, x es la diferencia entre el valor
de la variable x y su media) la evolucion de x viene dada por
d
x
= A
x + Bw(t)
dt
ya que la de x(t) se rige por (18.3) y la de xT (t) por xT(t) = A
xT (t). Por tanto, la
expresion (18.13) tiene la misma forma que la (18.9), y la ecuacion de evolucion
de x es identica a (18.3). En consecuencia P (t) satisface la ecuacion diferencial:
P (t) = AP (t) + P (t)AT + BQB T
(18.14)
P (t0 ) = P0
que rige la evolucion de la covarianza de la salida del sistema lineal (18.3) cuando
se excita con una se
nal aleatoria blanca de intensidad Q.

18.3

El problema de la observaci
on: Filtro de
Kalman

Para poder implementar un regulador mediante una ley de control de la forma


u = f (x) es necesario conocer en cada instante el valor de todas las variables

Estimacion del estado

459

de estado. Para estudiar la estimacion del estado se adopta la misma estructura


que se adopta para un observador, y que aqu recibe la denominacion de filtro de
Kalman. Para el estudio de este filtro se parte de un modelo del sistema, cuyo
estado se va a estimar, mediante un sistema dinamico con perturbaciones de la
forma: siguiente forma:
x(t)

= Ax(t) + Bu(t) + w(t)


y(t) = Cx(t) + v(t)

(18.15)

donde w(t) y v(t) son variables aleatorias correspondientes a un ruido blanco o


ruido gausiano, y presentaran, por tanto, las siguientes propiedades:
- E[wi (t)] = 0 para i = 1 . . . n.
- E[vi (t)] = 0 con i = 1 . . . m.
Es decir, su media es nula para cada instante de tiempo.
- E[wi (t)wj (t )] = qij ( ) con i, j = 1 . . . n.
- E[vi (t)vj (t )] = rij ( ) con i, j = 1 . . . m.
siendo ( ) la funcion delta de Dirac. Es decir,
E[w(t)wT (t )] = Q( )
E[v(t)v T (t )] = R( )
Cada se
nal u
nicamente esta correlacionada consigo mismo en el instante de producirse. Esto implica un espectro de frecuencias plano, donde no hay ninguna
predominante, y cuya amplitud nos da la covarianza de la se
nal.
Las variables v(t) y w(t) representan lo siguiente:
w(t): El sistema nunca queda perfectamente modelado, por lo que el estado
alcanzado en cada instante por el modelo matematico difiere del existente en
el sistema real. Con w(t) se representan las desviaciones en la evolucion de
los dos sistemas (el real y el modelo matematico). Estas variables tambien
son una representacion de las perturbaciones que pueden aparecer en las
distintas partes del sistema real.
v(t): Modela los errores que aparecen al medir la variable de salida del
sistema. Estos errores, en general, pueden ser cuantificados de manera mas
exacta que los anteriores.

Estimacion del estado

460

Para la evaluacion de los estados estimados x se adopta la misma estructura que


para un observador, es decir:
d
x
= A
x + Bu + Ko (y C x)
(18.16)
dt
donde:
x es la estimacion del vector de estado.
u es la se
nal de entrada al sistema.
y es la salida del sistema.
Ko es el vector de ganancias del filtro de Kalman.
En la figura 18.3 se muestra la estructura correspondiente. Con la expresion
y(t)

y(t)

y(t) y(t)
C

Ko

+
u(t)

Figura 18.3: Filtro de Kalman


(18.16), a partir de la estimacion del estado x, de la se
nal de entrada u y del error
en la variable de salida y C x generamos evolucion de las estimaciones.
Sea
P (t) = E[(
x x)(
x x)T ] = E[
xxT ]
la matriz de covarianza del error de estimacion x = x x.
El objetivo es encontrar los valores de Ko que minimicen la discrepancia entre
los estados reales x y los estados estimados x. Esta discrepancia se mide por el
valor cuadratico medio del error:
J = E[
xT x] = trP (t)

(18.17)

Estimacion del estado

461

Restando la expresion (18.16) de la (18.15), y recordando que x = x x, se tiene


que la evolucion del error x viene dada por la ecuacion:
d
x
= (A Ko C)
x + w + Ko v
dt

(18.18)

A partir de las caractersticas de los ruidos v y w se tiene que el ruido blanco que
act
ua sobre el sistema lineal anterior posee la covarianza:
E[(w(t) Ko v(t))(w( ) Ko v( ))T ] = (Q + Ko RKoT )(t )

(18.19)

De acuerdo con (18.14) la covarianza P (t) del error x vendra dada por
d
P (t) = (A Ko C)P (t) + P (t)(A Ko C)T + Q + Ko RKoT
dt

(18.20)

Por otra parte, es inmediato que:


(Ko P C T R1 )R(KoT R1 CP ) = Ko RKoT P C T KoT Ko CP + P C T R1 CP
Por tanto, sumando y restando P C T R1 CP a (18.20), teniendo en cuente esta
u
ltima expresion, se tiene:
d
P (t) = AP (t) + P (t)AT P C T R1 CP + Q + (Ko P C T R1 )R(KoT R1 CP )
dt
(18.21)
El problema del estimador optimo puede enunciarse diciendo que se trata de
determinar Ko de modo que se minimice (18.17), estando P (t) sujeto a (18.22).
Es decir, el criterio a optimizar viene dado por (18.17), las ecuaciones de evolucion
del sistema por (18.22) y la se
nal a optimizar es Ko (t). Al formar la funcion de
Hamilton del correspondiente problema de control optimo se tiene que el u
nico
T 1
T
1
termino en esta funcion que depende de Ko (t) es (Ko P C R )R(Ko R CP ),
por lo que es claro que el Ko (t) optimo vendra dado por:
Ko (t) = P (t)C T R1

(18.22)

Llevando este valor de Ko a (18.22) se tiene que P (t) satisface la ecuacion diferencial:
P (t) = P (t)AT + AP (t) + Q(t) P (t)C T R1 CP (t)
(18.23)
con las condiciones iniciales P (t0 ) = P0 .
Si comparamos las expresiones (??) y (18.23) con las (17.50) y (17.50) del
captulo anterior se comprueba que la solucion del filtro optimo es dual de la del
problema del control. Esta dualidad se puede resumir en el cuadro siguiente:

Estimacion del estado

462
Problema de la
Estimacion
BT
CT
Ro
Qo
Ko
AT

Problema del
Control
C
B
Rc
Qc
Kc
A

En este cuadro R y Q se han subindiciado con c o con o seg


un se refieran a los
problemas del control o de la estimacion. El cuadro muestra que los problemas
de la estimacion y del control son esencialmente el mismo.
Al igual que se haca en el caso del LQR consideraremos horizonte de tiempo
infinito, con lo cual, lo que se pretendera es minimizar en valor medio la diferencia entre los estados reales y los estimados, y no hacer mnimo dicho valor en
un intervalo de tiempo determinado, que es lo que se persigue con el anterior
planteamiento. En consecuencia, al hacer esta consideracion, la variable tiempo
desaparece de las ecuaciones que proporcionan los parametros del filtro de Kalman
y se tiene que Ko toma el valor constante dado por:
Ko = P C T R1

(18.24)

donde el u
nico parametro desconocido es la matriz P , que se halla resolviendo la
ecuaci
on de Riccati para la observacion
AP + P AT + Q P C T R1 CP = 0

(18.25)

La matriz Ko recibe la denominacion de ganancia de Kalman.


Para la determinacion del filtro de Kalman se ha partido de la estructura
representada en la figura 18.3, que es la de un observador clasico, y se ha ajustado
Ko para que el error de estimacion sea el mnimo con una norma cuadratica. Sin
embrago, se puede demostrar que en realidad esa es la estructura que produce
las mejores estimaciones de todos los posibles estimadores. Esta demostracion es
muy compleja, por lo que no se incluye en un curso introductorio como este. Se
trata de un resultado de la misma naturaleza que el que se ha visto al estudiar
el problema lineal cuadratico, en donde si se ha demostrado que la ley de control
lineal era la optima, y no se han ajustado simple los valores de k para que lo
fuera, que es en realidad lo que hemos hecho en el caso del filtro de Kalman.

Estimacion del estado

463
Resumen del Filtro de Kalman

Se da el sistema

x(t)

= Ax(t) + Bu(t) + w(t)

con la funcion de lectura

y(t) = Cx(t) + v(t)

Se tiene

E[w(t)] = 0
E[v(t)] = 0
E[w(t)wT (t )] = Q( )
E[v(t)v T (t )] = R( )

Ecuaciones del filtro

d
x
= A
x + Bu + Ko (y C x)
dt

Ganancia de Kalman

Ko = P C T R1

Propagacion de la
covarianza del error

P (t) = P (t)AT + AP (t) + Q(t) P (t)C T R1 CP (t)


P (t0 ) = P0

Error cuadraatico
de la estimacion

tr P

Estimacion del estado

464

w
u

v
R

-1

Figura 18.4: Sistema lineal de dimension 1.

18.3.1

Ejemplo

Sea el sistema dinamico de dimension 1 que se muestra en la figura 18.4, y en el


que A = 1. Se trata, por tanto, de un sistema de primer orden al que se asocian
un ruido de modelado w y un ruido de lectura v. La salida de este sistema es
la se
nal z. Se trata de reconstruir el estado x a partir de la se
nal z. Para ello
se adopta la estructura de un filtro de Kalman, tal como se indica en la figura
18.5. La determinacion del filtro de Kalman se reduce, en u
ltimo extremo, a la
determinacion de la constante K de modo que el valor cuadratico medio del error
de estimacion sea mnimo. Supongamos que las intensidades de los ruidos de
modelado y medida vienen dadas por
ww = Q( ) = 3( )
vv = R( ) = ( )
El valor de Ko en la figura 18.5 viene dado por la expresion (??). Para determinar
el valor de p se requiere resolver la ecuacion (18.23). Los parametros necesarios
para escribir esta ecuacion, en el problema que nos ocupan, son
A = 1 C = 1 Q = 3 R = 1
Con los valores de estos parametros la expresion (18.23) toma la forma
dp
= 2p p2 + 3
dt
que en el caso de un proceso estacionario, en el que el valor cuadratico medio del
error sea constante, se tiene que dp/dt = 0, y p es igual a constante. En tal caso
se tiene que la ecuacion que satisface p es la (18.25), es decir,
p2 + 2p 3 = 0

Estimacion del estado

465

w
u

v
R

-1
+
Ko

-1

Figura 18.5: Sistema lineal con filtro de Kalman.

Estimacion del estado

466

Resolviendo esta ecuacion en p se obtiene


p=1
Lo que llevado a (18.24) conduce a
Ko = 1.

18.4

M
etodo LQG

En sistemas dinamicos lineales con perturbaciones aleatorias gausianas y criterio


de optimizacion cuadratico se puede demostrar que el regulador optimo se obtiene
separando los problemas de estimacion y control, resolviendo cada uno de ellos
separadamente, y conectandolos en serie.
Es decir, a partir de las se
nales de salida y por medio de un filtro de Kalman
se obtienen las estimaciones de los estados, y a partir de estas estimaciones y con
ayuda de la ley de control, obtenida prescindiendo del caracter estocastico del
sistema, se determina la se
nal de accion sobre el mismo.
La estructura de control as obtenida recibe la denominacion de control LQG
(lineal cuadratico y gausiano), la cual requiere que se adopten modelos estocasticos
para el ruido de los sensores y del proceso, y que se defina un criterio cuadratico
como criterio de funcionamiento. Lo que se plantea en ese caso es un problema
de control optimo estocastico.
Veamos, con detalle, el regulador LQG. Sea un sistema dinamico lineal (con
n estados, m entradas y l salidas):
x = Ax + Bu + w
y = Cx + v
siendo:
x: vector de estados (n 1).
u: vector de entradas (m 1).
y: vector de salidas (l 1).
A: (n n).
B: (n m).
C: (l n).
y siendo w y v se
nales aleatorias, de ruido blanco gausiano, con media nula y

Estimacion del estado

467

mutuamente independientes, que satisfacen:


E[w(t)wT (t )] = Qo ( )
E[v(t)v T (t )] = Ro ( )
E[w(t)v T (t )] = 0
donde:
Qo = QTo 0 ,

Ro = RoT 0

El objetivo es determinar la se
nal de control u de forma que la siguiente funcional
sea mnima:
Z
(xT Qc x + uT Rc u) dt
J=
0

con:
Qc = QTc 0 ,

Rc = RcT 0

El teorema de separaci
on establece que el optimo global se tiene dividiendo el
problema en dos subproblemas:
1. Un problema de control optimo, del que se obtiene la regulacion por realimentacion de variables de estado:
u = Kc x
siendo
Kc = Rc1 B T Pc
Pc se determina a partir de la ecuacion de Riccati:
AT Pc + Pc A Pc BR1 B T Pc + Qc = 0
2. Un problema de filtrado optimo, mediante el filtro de Kalman:
d
x
= A
x + B u + Ko (y C x)
dt
donde
Ko = Po C T Ro1
y Po se obtiene de
APo + Po AT + Qo Po C T Ro1 CPo = 0
El problema, por lo tanto, queda descompuesto en dos partes.

Estimacion del estado

468

1. Resolucion del problema del control, prescindiendo en el sistema de perturbaciones, para obtener la Ley de control Kc .
2. Filtrado de Kalman para obtener x.
El esquema de regulacion que se obtiene uniendo estos dos problemas aparece en
la figura 18.6 y el compensador resultante es el que se muestra en la figura 18.7.

u(t)

z(t)
Planta

y(t)

Ley de
Control

x
(t)

Filtro de
Kalman

Figura 18.6: Separacion del control y de la estimacion en el problema LQG

Estimacion del estado

0 +

u(t)

469

x(t)

x(t)

y(t)

A
Planta
B

Kc

x
(t)

x
(t)
+

Ko
-

Observador

Figura 18.7: Estructura del regulador del problema del control estocastico

También podría gustarte