Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/258109379
CITATIONS READS
9 22,415
3 authors, including:
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Santiago Garrido on 23 December 2021.
INGENIERÍA DE CONTROL
X
ÍNDICE GENERAL
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX
1.. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Concepto de transformada . . . . . . . . . . . . . . . . . . . . . 2
1.3. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1. Transformada inversa de Fourier . . . . . . . . . . . . . 3
1.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 3
1.4.1. Propiedades de la transformada de Laplace . . . . . . . . 4
1.4.2. Transformadas de Laplace de algunas funciones . . . . . . 7
1.4.3. Transformada inversa de Laplace . . . . . . . . . . . . . 7
1.4.4. Resolución de ecuaciones diferenciales . . . . . . . . . . 11
1.4.5. Operador derivada . . . . . . . . . . . . . . . . . . . . . 12
1.5. Transformada z . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1. Propiedades de la transformada en z . . . . . . . . . . . . 13
1.5.2. Transformadas z de algunas funciones . . . . . . . . . . . 15
1.5.3. La transformada z inversa . . . . . . . . . . . . . . . . . 16
1.5.4. Resolución de ecuaciones en diferencias . . . . . . . . . . 18
1.5.5. Operador retardo . . . . . . . . . . . . . . . . . . . . . . 19
1.6. Procesos estocásticos o aleatorios . . . . . . . . . . . . . . . . . 20
1.6.1. Variable aleatoria y proceso aleatorio . . . . . . . . . . . 21
1.6.2. Funciones de distribución y de densidad de probabilidad . 24
1.6.3. Parámetros para describir un proceso estocástico . . . . . 26
1.6.4. Función de autocorrelación . . . . . . . . . . . . . . . . . 29
1.6.5. Función de correlación cruzada . . . . . . . . . . . . . . 31
1.6.6. Función de densidad espectral . . . . . . . . . . . . . . . 33
1.6.7. Descripción espectral de las perturbaciones . . . . . . . . 34
1.6.8. Espectro cruzado . . . . . . . . . . . . . . . . . . . . . . 35
1.6.9. Ruido blanco . . . . . . . . . . . . . . . . . . . . . . . . 35
1.6.10. Descripción de perturbaciones en función del ruido blanco 36
XII
4.. Modelado y análisis de sistemas no-lineales . . . . . . . . . . 135
4.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2. Efectos de las no-linealidades . . . . . . . . . . . . . . . . . . . . 137
4.3. Función descriptiva . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.3.1. Método de obtención de la función descriptiva dada la ca-
racterística entrada-salida de la no-linealidad . . . . . . . 141
4.4. Análisis por función descriptiva . . . . . . . . . . . . . . . . . . 151
4.4.1. Estudio de la estabilidad del sistema . . . . . . . . . . . . 152
4.4.2. Aplicación a la estabilidad de los ciclos límites . . . . . . 152
4.5. Análisis en el plano de fase . . . . . . . . . . . . . . . . . . . . . 164
4.5.1. Puntos singulares . . . . . . . . . . . . . . . . . . . . . . 167
4.6. El Método de las isoclinas . . . . . . . . . . . . . . . . . . . . . 175
XIII
7.. Técnicas clásicas de control . . . . . . . . . . . . . . . . . . . . 275
7.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . 275
7.2. Diseño de controladores clásicos . . . . . . . . . . . . . . . . . . 276
7.3. Especificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
7.4. Control PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
7.4.1. Estructura básica de un controlador PID . . . . . . . . . . 279
7.4.2. Métodos de Ziegler - Nichols . . . . . . . . . . . . . . . 280
7.5. Métodos analíticos de diseño de controladores PID . . . . . . . . 284
7.5.1. Método de asignación de polos . . . . . . . . . . . . . . . 284
7.5.2. Diseño basado en los polos dominantes . . . . . . . . . . 287
7.5.3. Discretización de un controlador PID . . . . . . . . . . . 296
7.5.4. Diseño de controladores PID discretos . . . . . . . . . . . 305
7.5.5. Estructura de un controlador PID discreto real . . . . . . 309
7.6. Diseño de reguladores por síntesis directa . . . . . . . . . . . . . 311
7.6.1. Restricciones de realización física . . . . . . . . . . . . . 313
7.6.2. Conveniencia de simplicidad . . . . . . . . . . . . . . . . 314
7.6.3. Restricciones de estabilidad . . . . . . . . . . . . . . . . 314
7.6.4. Controladores con tiempo de establecimiento mínimo . . . 318
XIV
9.. Control óptimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
9.2. Funciones de coste . . . . . . . . . . . . . . . . . . . . . . . . . 380
9.3. El problema general de control óptimo (discreto) . . . . . . . . . 382
9.4. Regulador lineal cuadrático (LQR) discreto . . . . . . . . . . . . 386
9.4.1. Control discreto con estado final libre . . . . . . . . . . . 387
9.4.2. Control óptimo discreto en estado estacionario . . . . . . 390
9.5. Control óptimo en tiempo continuo . . . . . . . . . . . . . . . . . 391
9.5.1. Solución del problema de control óptimo . . . . . . . . . 392
9.6. Regulador lineal cuadrático (LQR) continuo . . . . . . . . . . . . 396
9.6.1. Control continuo con estado final libre . . . . . . . . . . . 396
9.6.2. Control continuo en estado estacionario . . . . . . . . . . 399
9.7. Principio del mínimo de Pontriaguin . . . . . . . . . . . . . . . . 404
9.7.1. Diseño con restricciones en la entrada . . . . . . . . . . . 405
Contraportada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
XV
XVI
ÍNDICE DE CUADROS
3.1. Red RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2. Concepto de estado . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3. Diagrama de bloques de un sistema en tiempo continuo represen-
tado en ecuaciones de estado . . . . . . . . . . . . . . . . . . . . 83
3.4. Filtro Butterworth de 4o orden . . . . . . . . . . . . . . . . . . . 84
3.5. Representación gráfica de la forma canónica controlable . . . . . 93
3.6. Representación gráfica de la forma canónica observable . . . . . . 96
3.7. Representación gráfica de la forma canónica de diagonal . . . . . 98
3.8. Sistema del ejemplo 3.3.1 . . . . . . . . . . . . . . . . . . . . . . 100
3.9. Sistema sometido a perturbaciones . . . . . . . . . . . . . . . . . 124
3.10. Sistema con perturbaciones de sistema predecibles . . . . . . . . 125
3.11. Sistema con perturbaciones de salida predecibles . . . . . . . . . 127
3.12. Sistema del ejemplo 3.6.1 . . . . . . . . . . . . . . . . . . . . . . 129
3.13. Sistema del ejemplo 3.6.1 . . . . . . . . . . . . . . . . . . . . . . 131
XX
4.24. Sistema de la estabilidad de ciclos límites . . . . . . . . . . . . . 157
4.25. Sistema del ejemplo 4.4.2 . . . . . . . . . . . . . . . . . . . . . . 157
4.26. Representación de G( jω) y de −1/N (A) . . . . . . . . . . . . . 159
4.27. Sistema del ejemplo 4.4.3 . . . . . . . . . . . . . . . . . . . . . . 159
4.28. La intersección de G( jω) y de −1/N muestra la existencia del
ciclo límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.29. No-linealidad de adherencia (sticking) . . . . . . . . . . . . . . . 161
4.30. Bucle de control . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4.31. Forma de onda de la salida de la no-linealidad . . . . . . . . . . . 163
4.32. Representación de G(s)R(s) y −1/N . . . . . . . . . . . . . . . 164
4.33. Plano de fase correspondiente a la ecuación 4.5.2 para ζ = 0 y
ω0 = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.34. Plano de fase correspondiente a la ecuación 4.5.2 para 0 < ζ < 1 . 166
4.35. Plano de fase correspondiente a la ecuación 4.5.2 para ζ > 1 . . . 167
4.36. Punto de silla en coordenadas modales y normales . . . . . . . . . 169
4.37. Nodo estable en coordenadas modales y normales . . . . . . . . . 170
4.38. Foco estable en coordenadas modales y normales . . . . . . . . . 171
4.39. Nodo inestable en coordenadas modales y normales . . . . . . . . 171
4.40. Foco inestable en coordenadas modales y normales . . . . . . . . 172
4.41. Centro en coordenadas modales y normales . . . . . . . . . . . . 172
4.42. Plano de fase cuando (a) λ1 = 0, λ2 > 0 y (b) λ1 = 0, λ2 < 0 . . 173
4.43. Puntos singulares en el plano p − q . . . . . . . . . . . . . . . . 173
4.44. Clasificación de los tipos de puntos singulares . . . . . . . . . . . 174
4.45. Método de las isoclinas . . . . . . . . . . . . . . . . . . . . . . . 176
4.46. Sistema del ejemplo 4.6.1 . . . . . . . . . . . . . . . . . . . . . . 177
4.47. Campo de direcciones de la región central . . . . . . . . . . . . . 179
4.48. Campo de direcciones de la zona de la derecha . . . . . . . . . . 180
4.49. Trayectorias típicas del ejemplo 4.6.1 . . . . . . . . . . . . . . . 181
4.50. Sistema del ejemplo 4.6.2 . . . . . . . . . . . . . . . . . . . . . . 181
4.51. Trayectoria típica del sistema del ejemplo 4.6.2 . . . . . . . . . . 183
4.52. Sistema del ejemplo 4.6.3 . . . . . . . . . . . . . . . . . . . . . . 183
4.53. Campo de direcciones del sistema del ejemplo 4.6.3 . . . . . . . . 186
4.54. Sistema del ejemplo 4.6.4 . . . . . . . . . . . . . . . . . . . . . . 187
4.55. Trayectorias típicas del ejemplo 4.6.4 . . . . . . . . . . . . . . . 189
XXI
5.8. Camino de Nyquist para el ejemplo 5.1.8 . . . . . . . . . . . . . . 201
5.9. Diagrama de Nyquist del ejemplo 5.1.6 . . . . . . . . . . . . . . 202
5.10. Camino de Nyquist para un sistema con un polo en el origen . . . 203
5.11. Camino de Nyquist para un sistema con polos en el eje imaginario 204
5.12. Sistema estable . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.13. Sistema inestable . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.14. El sistema a) es más estable que los sistemas b) y c) . . . . . . . . 206
5.15. Cálculo del margen de ganancia . . . . . . . . . . . . . . . . . . 207
5.16. Diagrama de Nyquist, lugar de las raíces y respuesta escalón en bu-
1
cle cerrado según aumenta la ganancia del sistema G(s) = s(s+a)(s+b)
con a, b > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.17. Los dos sistemas tienen el mismo margen de ganancia, pero el a)
es más estable que el b) . . . . . . . . . . . . . . . . . . . . . . . 209
5.18. Margen de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
5.19. Margen de ganancia y de fase en el diagrama de Bode . . . . . . . 210
5.20. Trayectorias correspondientes al sistema y 2 = cx 3 . . . . . . . . . 212
5.21. Punto de equilibrio estable . . . . . . . . . . . . . . . . . . . . . 213
5.22. Punto de equilibrio inestable . . . . . . . . . . . . . . . . . . . . 213
5.23. Punto de equilibrio asintóticamente estable . . . . . . . . . . . . 214
5.24. Aspecto de una función de Liapunov V (x) . . . . . . . . . . . . . 215
5.25. Trayectoria de fase correspondiente al sistema 5.2.2 . . . . . . . . 217
5.26. Sistema con realimentación no-lineal . . . . . . . . . . . . . . . . 226
5.27. Condición del sector . . . . . . . . . . . . . . . . . . . . . . . . 226
5.28. Sistema asociado de Aizerman . . . . . . . . . . . . . . . . . . . 226
5.29. Interpretación geométrica del criterio de Popov . . . . . . . . . . 228
5.30. No-linealidad del ejemplo 5.3.1 . . . . . . . . . . . . . . . . . . . 229
5.31. Sistema estable en [0, K ] . . . . . . . . . . . . . . . . . . . . . . 230
5.32. Sistema con realimentación no-lineal . . . . . . . . . . . . . . . . 230
5.33. Descomposición de la función f(y) como suma de K y y de f˜(y) . 232
5.34. Sistema modificado con realimentación no-lineal . . . . . . . . . 233
5.35. Sistema modificado y simplificado con realimentación no-lineal . 233
5.36. Criterio del círculo para 1/G( jω) . . . . . . . . . . . . . . . . . 233
5.37. Criterio del círculo para G( jω) . . . . . . . . . . . . . . . . . . . 234
5.38. Curva de Nyquist para G y algunos círculos (de radio 0.3 y ∞) que
satisfacen el criterio del círculo . . . . . . . . . . . . . . . . . . . 235
XXII
6.7. Respuesta a un escalón . . . . . . . . . . . . . . . . . . . . . . . 250
6.8. Auto correlación de la señal de entrada . . . . . . . . . . . . . . . 252
6.9. Correlación cruzada entre la entrada y la salida . . . . . . . . . . 253
6.10. Respuesta impulsional . . . . . . . . . . . . . . . . . . . . . . . 253
6.11. Identificación por el método de la respuesta frecuencial . . . . . . 254
6.12. Entrada ruido blanco y salida del sistema . . . . . . . . . . . . . . 257
6.13. Respuesta en frecuencia según el análisis espectral . . . . . . . . 258
6.14. Señal binaria pseudo-aleatoria . . . . . . . . . . . . . . . . . . . 258
6.15. Resultados del ejemplo 6.4.3: salidas real y estimada del sistema,
y el error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
XXIII
7.23. Respuesta del sistema del ejemplo 7.5.6: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 308
7.24. Estructura teórica de un control PID discreto . . . . . . . . . . . . 309
7.25. Estructura de un PID discreto real . . . . . . . . . . . . . . . . . 310
7.26. Estructura del control (a) y equivalente discreto del sistema (b). . . 312
7.27. Estructura típica de un lazo de control . . . . . . . . . . . . . . . 315
7.28. Respuesta del sistema del ejemplo 7.6.1: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 319
7.29. Respuesta del sistema del ejemplo 7.6.2: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 324
7.30. Respuesta del sistema del ejemplo 7.6.3: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 327
XXIV
10.5. Diagrama de Simulink del sistema con retardo y del sistema con
retardo y predictor de Smith . . . . . . . . . . . . . . . . . . . . 412
10.6. Respuesta escalón del sistema con retardo y del sistema con retardo
y predictor de Smith . . . . . . . . . . . . . . . . . . . . . . . . . 412
10.7. Diagrama de Simulink del sistema con retardo y predictor de Smith 413
10.8. Respuesta escalón del sistema con retardo y predictor de Smith . . 414
10.9. Esquema general de linealización por realimentación . . . . . . . 414
10.10.Esquema de un depósito . . . . . . . . . . . . . . . . . . . . . . 415
10.11.Respuesta escalón en t = 1 del sistema ḣ(t) + αh(t) = 0 . . . . . 416
10.12.Error de seguimiento (trayectorias de ë + k2 ė + k1 e = 0) . . . . . 419
10.13.Esquema de control del sistema del ejemplo 10.4.2 . . . . . . . . 422
10.14.Sistema del ejemplo 10.4.3 . . . . . . . . . . . . . . . . . . . . . 422
10.15.Respuestas temporales de h y de ḧpara el sistema del ejemplo 10.4.3 424
10.16.Sistema del ejemplo 10.5.1 . . . . . . . . . . . . . . . . . . . . . 428
10.17.Respuesta del sistema del ejemplo 10.5.1 para a = 1 . . . . . . . 428
10.18.Respuesta del sistema del ejemplo 10.5.1 para a ligeramente dis-
tinta de la que se supone . . . . . . . . . . . . . . . . . . . . . . 429
10.19.Diagrama de Simulink del sistema en bucle cerrado . . . . . . . . 431
10.20.La no linealidad expresada por medio de a) una tabla y b) de splines 435
10.21.Respuesta escalón del sistema con el controlador diseñado . . . . 435
10.22.Evolución del I S E al variar K p para K i = 1 . . . . . . . . . . . . 436
10.23.Esquema del péndulo invertido . . . . . . . . . . . . . . . . . . . 439
10.24.Esquema Simulink de bucle cerrado del ejemplo 10.7.1 . . . . . . 439
10.25.Esquema Simulink del bloque del sistema del ejemplo 10.7.1 . . . 439
10.26.Esquema Simulink del bloque del controlador del ejemplo 10.7.1 . 440
10.27.Resultados de la simulación del ejemplo 10.7.1 . . . . . . . . . . 440
10.28.Resultados de la simulación del ejemplo 10.7.1 . . . . . . . . . . 441
10.29.Obtención de x̃ a partir de s (acotación de x̃) . . . . . . . . . . . . 442
10.30.Acotación en x ˜(i) . . . . . . . . . . . . . . . . . . . . . . . . . . 443
10.31.Condición de deslizamiento . . . . . . . . . . . . . . . . . . . . . 444
10.32.Interpretación gráfica de la condición de deslizamiento . . . . . . 444
10.33.Castañeteo (chattering) como resultado de una conmutación im-
perfecta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
10.34.Resultados de la simulación para el ejemplo 10.7.2 para η = 0.1 . 447
10.35.Resultados de la simulación para el ejemplo 10.7.2 para η = 1 . . 447
10.36.Resultados del chattering de la simulación para el ejemplo 10.7.2 448
10.37.Diagrama de Simulink de bucle cerrado del ejemplo 10.7.2 . . . . 448
10.38.Diagrama de Simulink del bloque del modelo del ejemplo 10.7.2 . 448
10.39.Diagrama de Simulink del bloque del controlador del ejemplo 10.7.2449
XXV
XXVI
1. INTRODUCCIÓN
1.1. Introducción
Uno de los problemas con los que tradicionalmente se tienen que enfrentar
aquellos que trabajan en el control o en la identificación de procesos estriba en la
existencia de una diversidad de herramientas matemáticas para estudiar, analizar y
diseñar dichos sistemas.
Por ejemplo, si deseamos analizar y controlar un sistema continuo el sistema
podemos modelarlo en cuanto a su respuesta temporal mediante la utilización de la
función de transferencia o mediante la técnica de variables de estado. Además el
sistema puede ser controlado en tiempo continuo o en tiempo discreto lo que reque-
rirá la utilización de transformadas de Laplace, para el caso de tiempo continuo,
o transformadas en Z, para el caso de tiempo discreto. Otras veces nos interesará
estudiar la respuesta en frecuencia del sistema para lo que nos basaremos en el es-
tudio de la respuesta en régimen permanente del sistema (en base a la función de
transferencia).
También nos encontramos con frecuencia el caso en el que la utilización de las
técnicas anteriores no explica suficientemente el comportamiento del sistema, bien
por que este está sometido a perturbaciones no modelables o bien porque nuestro
conocimiento del mismo no es suficientemente preciso. En estas situaciones se ha-
ce necesario la utilización de técnicas probabilísticas que nos ayuden a caracterizar
estas señales o sistemas.
Así que es muy frecuente que en el estudio y análisis de un sistema nos encon-
tremos con la presencia de diferentes herramientas matemáticas que nos permiten
caracterizar, analizar y diseñar un sistema de control de forma que tengamos en
cuenta los diferentes efectos presentes en el sistema.
El objetivo básico de este capítulo es introducir las herramientas matemáticas
que se utilizan normalmente para analizar y sintetizar los sistemas de control de-
terministas en el dominio del tiempo, tanto en tiempo discreto como en tiempo
continuo, así como en frecuencia. Y se introducirá la herramienta matemática bá-
sica para analizar los comportamientos probabilísticos presentes en procesos o en
señales.
2 1. Introducción
A la hora de analizar y diseñar los sistemas de control para una amplia variedad
de procesos, nos encontramos con la necesidad de resolver ecuaciones diferencia-
les o integro-diferenciales con el fin de conocer la respuesta que el proceso nos va
a dar ante determinadas entradas o acciones de control. Estas ecuaciones diferen-
ciales pueden resolverse de forma directa o bien se pueden resolver convirtiéndolas
en otro tipo de ecuaciones de más fácil resolución. Existen una serie de métodos
operacionales que nos permiten transformar problemas de resolución de ecuacio-
nes diferenciales lineales o problemas de resolución de ecuaciones en diferencias
en problemas de tipo polinómico mucho más fáciles de tratar.
Entre las transformaciones más frecuentemente utilizadas para la solución de
ecuaciones diferenciales ordinarias de tipo lineal están las transformaciones de tipo
integral, y entre estas una muy ampliamente utilizada en control es la denominada
transformada de Laplace.
Para el caso de los sistemas con ecuaciones en diferencias se utiliza la denomi-
nada transformada z.
Z +∞
F(ω) = f (t)[cos(ωt) − j sin(ωt)]dt
−∞
Z +∞ Z +∞
= f (t) cos(ωt)dt − j f (t) sin(ωt)dt (1.3.4)
−∞ −∞
p
|F(ω)| = R 2 (ω) + I 2 (ω)
−1 I (ω)
6 F(ω) = arctan (1.3.6)
R(ω)
Dada una función real f (t) tal que f (t) < 0 para t < 0 se define la transfor-
mada unilateral de Laplace de la función f (t) como:
Z ∞
F(s) = L[ f (t)] = f (t)e−st dt (1.4.1)
0
4 1. Introducción
1. Linealidad
Una propiedad muy importante de la transformada de Laplace es que es un
operador lineal. Dadas dos funciones f (t) y g(t) y una constante k se verifica
que:
2. Diferenciación
La transformada de Laplace de la diferencial de una función f (t) se puede
expresar de la siguiente manera:
d
L[ f (t)] = s F(s) − lim f (t) = s F(s) − f (0) (1.4.7)
dt t→0
3. Integración
La transformada de Laplace de la integral de una función f (t) con respecto
al tiempo es la transformada de Laplace de la función dividida por s, es decir:
Z t
F(s)
L[ f (τ )dτ ] = (1.4.9)
0 s
Z t1 Z t2 Z tn
F(s)
L[ ... f (τ )dτ dτ1 . . . dτn ] = (1.4.10)
0 0 0 sn
4. Desplazamiento en el tiempo
Un desplazamiento en el tiempo de valor a de la función f (t), equivale en
el dominio complejo a multiplicar la transformada de Laplace de la función
F(s), por e−sa ; esto es:
7. Desplazamiento complejo
La transformada de Laplace de una función f (t) multiplicada por e∓αt ,donde
α es una constante, equivale a reemplazar en la transformada de Laplace de
la función, F(s), s por s ± a es decir
8. Convolución real
Sean F1 (s) y F2 (s) las transformadas de Laplace de las funciones f 1 (t) y
f 2 (t), respectivamente, y f 1 (t) = 0 y f 2 (t) = 0 para t < 0 entonces
Z
−αt
∞
1 −(s+α)t ∞ 1
F(s) = L[e ]= e−αt e−st dt = − e = (1.4.20)
0 s+α 0 s+α
En la tabla se pueden ver las transformadas de algunas de las funciones más
usuales.
f (t) L(s)
δ(t) 1
1
u 0 (t) s
1
t s2
e−at 1
s+a
te−at 1
(s+a)2
n!
tn, t ≥ 0 s n+1
, n = 1, 2, . . .
t n e−at , t ≥0 n!
(s+a)n+1
, n = 1, 2, . . .
ω
sin(ωt) (s 2 +ω2 )
s
cos(ωt) (s 2 +ω2 )
ω
e−at sin ωt (s+a)2 +ω2
e−at cos ωt s+a
(s+a)2 +ω2
donde c es una constante real mayor que la parte real de todas las singularidades
de F(s) . Esta integral se evalúa en el plano-s complejo. Desde el punto de vista
del control de procesos esta forma de obtener la transformación inversa resulta
extremadamente costosa y resulta poco práctica. Por ello se acude o a la utilización
de tablas de transformadas de Laplace o a la expansión en fracciones parciales.
N (s)
F(s) = (1.4.24)
sn + a1 s n−1 + . . . + an−1 s + an
donde los coeficientes ai son coeficientes reales. A las raíces del polinomio N (s)
se les denominan ceros y a las raíces del denominador D(s) se les denominan polos
de dicha función F(s).
La idea básica del método de la expansión en fracciones parciales consiste en
descomponer el polinomio F(s) en una suma de fracciones simples de forma que
éstas sean las transformadas de funciones simples y conocidas, de forma que para
cada fracción resulte muy fácil calcular la transformada inversa. Como la trans-
formada de Laplace es un operador lineal, una vez calculadas las transformadas
inversas de las fracciones simples, para obtener la transformada inversa de la fun-
ción F(s) basta con sumar las transformadas inversas de las fracciones simples.
Veamos los diferentes casos que se pueden presentar.
1.4. Transformada de Laplace 9
Caso de polos simples y reales Si todos los polos de D(s) son simples y
reales, entonces la ecuación 1.4.24 toma la siguiente forma
N (s)
F(s) = (1.4.25)
(s + s1 )(s + s2 ) . . . (s + sn )
y en ella ∀i 6= j, si 6 = s j . Descomponiendo la expresión 1.4.25 en fracciones
parciales obtenemos
A1 A2 An
F(s) = + + ... + (1.4.26)
(s + s1 ) (s + s2 ) (s + sn )
donde los coeficientes A1 , . . . , An se obtienen como
N (s)
Ai = (s + si ) (1.4.27)
D(s) s=−si
Obsérvese que cada una de estas fracciones simples son las transformadas de
Laplace de funciones de tipo exponencial con exponente −si y coeficiente Ai .
Caso de polos múltiples y reales Si algunos de los polos de D(s) son múl-
tiples, entonces la ecuación 1.4.24 toma la siguiente forma
N (s)
F(s) = (1.4.28)
(s + s1 )(s + s2 ) . . . (s + sk−1 )(s + sk )n−k+1
y en ella sk tiene un orden de multiplicidad de n − k + 1. Descomponiendo la
expresión 1.4.28 en fracciones parciales obtenemos
A1 A2 Ak−1
F(s) = + + ... + +
(s + s1 ) (s + s2 ) (s + sk−1 )
A k1 A k2 Akn−k
+ + + ... + (1.4.29)
(s + sk ) (s + sk ) 2 (s + sk )n−k+1
donde los coeficientes A1 , . . . , Ak−1 correspondientes a los polos simples se ob-
tienen igual que en el caso anterior, y los correspondientes al polo multiple se
obtienen como
n−k+1 N (s)
Akn−k = (s + sk ) (1.4.30)
D(s) s=−sk
d
n−k+1 N (s)
Akn−k+1 = (s + sk ) (1.4.31)
ds D(s) s=−sk
...
1 dn−k
n−k+1 N (s)
A k1 = (s + sk ) (1.4.32)
(n − k)! ds n−k D(s) s=−sk
10 1. Introducción
N (s)
A−σ + jw = (s + σ − jw)
(1.4.33)
D(s) s=−σ + jw
N (s)
A−σ − jw = (s + σ + jw) (1.4.34)
D(s) s=−σ − jw
2s + 3
F(s) = (1.4.35)
s(s + 1)(s + 3)
que si la expandimos en fracciones parciales quedará de la siguiente forma
A1 A2 A3
F(s) = + + (1.4.36)
s (s + 1) (s + 3)
Los coeficientes vendrán determinados por
2s + 3
A1 = =
s F(s) =1
s=0 (s + 1)(s + 3) s=0
2s + 3 1
A2 = (s + 1)F(s) = =−
s=−1 s(s + 3) s=−1 2
2s + 3 1
A3 = (s + 3)F(s) = =−
s=−3 s(s + 1) s=−3 2
con lo que
1 − 12 − 12
F(s) = + + (1.4.37)
s (s + 1) (s + 3)
y su transformada inversa será la función
1 1
f (t) = 1 − e−t − e−3t (1.4.38)
2 2
Ejemplo 1.4.4: Supongamos la siguiente función
s 2 + 3s
F(s) = (1.4.39)
(s + 1)3
que si la expandimos en fracciones parciales quedará de la siguiente forma
1.4. Transformada de Laplace 11
A1 A2 A3
F(s) = + + (1.4.40)
(s + 1) (s + 1) 2 (s + 1)3
Los coeficientes vendrán determinados por
A3 = (s + 1)3 F(s) = s 2 + 3s = −2
s=−1 s=−1
d
A2 = (s + 1)3 F(s) = 2s + 3 =1
ds s=−1 s=−1
1 d2 3
2
A1 = (s + 1) F(s) = =1
2! ds 2 s=−1 2! s=−1
con lo que
1 1 −2
F(s) = + + (1.4.41)
(s + 1) (s + 1) 2 (s + 1)3
y su transformada inversa será la función
A1 A2
X (s) = + (1.4.44)
s (s + 2)
Los coeficientes vendrán determinados por
(s + 1) 1
A1 = s X (s) = =
s=0 (s + 2) s=0 2
s + 1 1
A2 = (s + 2)X (s) = =
s=−2 s s=−2 2
con lo que
1 1
2 2
X (s) = +
s (s + 2)
y su transformada inversa será la solución de la ecuación diferencial 1.4.43 para
las condiciones iniciales que se han supuesto, es decir
1
x(t) = (1 + e−2t ). (1.4.45)
2
d
py(t) = y(t) (1.4.46)
dt
Utilizando este símbolo, una ecuación diferencial de orden n
dn d n−1 d
y(t)+a 1 y(t) + . . . + a n−1 y(t) + an y(t) =
dt n dt n−1 dt (1.4.47)
d n−1 d
= b1 n−1 u(t) + . . . + bn−1 u(t) + bn u(t)
dt dt
puede expresarse en forma polinómica
p n y(t)+a1 p n−1 y(t)+. . .+an−1 py(t)+an y(t) = b1 p n−1 u(t)+. . .+bn−1 pu(t)+bn u(t)
(1.4.48)
es decir
[ p n + a1 p n−1 + . . . + an−1 p + an ]y(t) = [b1 p n−1 + . . . + bn−1 p + bn ]u(t)
A( p)y(t) = B( p)u(t)
B( p)
y(t) = u(t) (1.4.49)
A( p)
Este operador tiene la ventaja de trabajar directamente en el dominio del tiem-
po, lo que en ocasiones resulta útil. Este operador es frecuentemente utilizado en
los métodos clásicos de resolución de ecuaciones diferenciales ordinarias.
1.5. Transformada z 13
1.5. Transformada z
y
Z[α f (k)] = αZ[ f (k)] = α F(z) (1.5.3)
2. Traslación real.
La transformada z de una función f (k) desplazada n en el tiempo se puede
expresar de la siguiente manera:
X
n−1
Z[ f (k + n)] = z n [F(z) − f (k)z −k ] (1.5.5)
k=0
3. Traslación compleja.
Si f (t) tiene la transformada z, F(z), entonces la transformada z de e−at f (t)
se define como F(zeaT ), lo que se conoce como teorema de la traslación
compleja.
14 1. Introducción
X
n−1 X
n−1
−at −akT −k
Z[e f (t)] = f (kT )e z = f (kT )(zeaT )−k = F(zeaT )
k=0 k=0
(1.5.6)
6. Multiplicación por a k .
Si la transformada z de la función f (k) es F(z), entonces la transformada z
de a k f (k) se obtiene como
7. Convolución real.
Sean F1 (z) y F2 (z) las transformadas z de las funciones f 1 (t) y f 2 (t), res-
pectivamente, entonces
Una excepción a este caso se produce si una de las dos funciones es el retardo
integral e N T s , ya que en este caso
1, k > 0
f (k) = u 0 (k) = (1.5.14)
0, k < 0
se obtiene como
∞
X
F(z) = Z[u 0 (k)] = 1z −k
k=0
∞
X
= z −k = 1 + z −1 + z −2 + . . .
k=0
1 z
= −1
= (1.5.15)
1−z z−1
∞
X
F(z) = Z[e−αk ] = e−αkT z −k
k=0
−αT −1
= 1+e z + e−α2T z −2 + . . .
1
=
1− e−αT z −1
z
= (1.5.16)
z − e−αT
f (k) F(z)
δ(k) 1
δ(k − n) z −n
z
u 0 (k) z−1
z
ak z−a
z
k (z−1)2
z2
k+1 (z−1)2
(sin α)z
sin(αk) z 2 −(2 cos α)z+1
z 2 −(cos α)z
cos(αk) z 2 −(2 cos α)z+1
Caso de polos simples y reales Si todos los polos de D(z) son simples y
reales, y hay por lo menos un cero en el origen, entonces se expande F(z)
z
de la
siguiente forma
F(z) A1 A2 An
= + + ... + (1.5.19)
z (z − z 1 ) (z − z 2 ) (z − z n )
donde los coeficientes A1 , . . . , An se obtienen como
F(z)
Ai = (z − z i ) (1.5.20)
z z=z i
Caso de polos múltiples y reales Si los polos de D(z) son múltiples, en-
tonces la ecuación 1.5.18 toma la siguiente forma
N (z)
F(z) = (1.5.21)
(z − z 1 )2
y en ella z 1 tiene un orden de multiplicidad de 2. Descomponiendo la expresión
1.5.21 en fracciones parciales obtenemos
F(z) A1 A2
= + (1.5.22)
z (z − z 1 )2 (z − z 1 )
donde los coeficientes A1 y A2 correspondientes al polo multiple se obtienen como
F(z)
A1 = (z − z 1 )2 (1.5.23)
z z=z 1
d F(z)
A2 = (z − z 1 )2 (1.5.24)
dz z z=z 1
18 1. Introducción
z(1 − e−αT )
F(z) = (1.5.25)
(z − 1)(z − e−αT )
F(z) A1 A2
= + (1.5.26)
z (z − 1) (z − e−αT )
F(z) 1 1
= + (1.5.28)
z (z − 1) (z − e−αT )
o lo que es lo mismo
1 1
F(z) = −1
+ −αT
(1.5.29)
(1 − z ) (1 − e z −1 )
X (z) A1 A2
= + (1.5.33)
z (z + 1)2 (z + 1)
Los coeficientes vendrán determinados por
X (z)
A1 = (z + 1)2 = z = −1
z z=−1 z=−1
d X (z)
A2 = (z + 1)2 =1
dz z z=−1
es decir
y(k) = [b1 q −1 + . . . + bn−1 q −(n−1) + bn q −n ]u(k)
A(q −1 )y(k) = B(q −1 )u(k)
(1.5.39)
B(q −1 )
y(k) = u(k)
A(q −1 )
1
x(t)
−1
−2
−3
−4
−5
1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3
t
Parece claro que esta variabilidad en el valor de una variable concreta, que
hemos denominado variable aleatoria, puede asociarse también a funciones tem-
porales que son las que más nos interesan desde el punto de vista del control de
procesos. Un posible ejemplo de una función aleatoria en el tiempo es el que se
muestra en la figura 10.1.
No resulta difícil de intuir que, para un cierto sistema físico, aunque se repita el
experimento un número considerable de veces la salida del mismo no va a ser exac-
tamente igual. El conjunto de todas las posibles funciones en el tiempo que pueden
ser observadas, pertenecen a lo que denominaremos proceso aleatorio o estocás-
tico, y que representaremos por {u(t)}. Una función particular de dicho conjunto,
la expresaremos como u(t) y la denominaremos función muestra. El valor de una
función muestra en un instante de tiempo determinado, t1 , es una variable aleatoria
y lo representaremos por u(t1 ). En un proceso estocástico, tenemos por lo tanto,
para cada instante de tiempo una variable aleatoria.
22 1. Introducción
x1(t) 5
−5
0 0.5 1 1.5 2 2.5 3
t
5
x2(t)
−5
0 0.5 1 1.5 2 2.5 3
t
5
x3(t)
−5
0 0.5 1 1.5 2 2.5 3
t
h i
t1 : u 1 (t1 ), u 2 (t1 ), . . . , u n (t1 )
h i
t2 : u 1 (t2 ), u 2 (t2 ), . . . , u n (t2 ) (1.6.1)
1.5
0.5
x1(t)
−0.5
−1
−1.5
−2
0 0.5 1 1.5 2 2.5 3
t
Al igual que en el caso de las señales para las que definíamos los concep-
tos de transformada de Laplace y transformada en z, estos procesos pueden
estudiarse en tiempo continuo o discreto.
4. Procesos estacionarios.
Para una variable aleatoria de un proceso estocástico, que caracterizamos por
medio de parámetros estadísticos, es posible definir una función de densidad
de probabilidad. Si las funciones de densidad conjunta y marginales de di-
cho proceso no dependen de la elección del origen de tiempos, entonces el
proceso se dice que es estacionario. La principal ventaja que presentan estos
24 1. Introducción
procesos es que los parámetros estadísticos del proceso, como por ejemplo el
valor medio, permanecen constantes a lo largo del tiempo. Si estos paráme-
tros dependen del instante de tiempo que se considere, entonces el proceso
será no estacionario.
5. Procesos ergódicos.
Algunos procesos estacionarios presentan además la propiedad de que cual-
quier conjunto de datos que se tome del proceso presenta las mismas caracte-
rísticas estadísticas que todo el proceso. Por ello, en estos procesos se puede
determinar la conducta estadística de todo el proceso examinando solamente
una muestra típica de la función. Esta propiedad resulta muy difícil de de-
mostrar en la mayoría de los casos, si bien es usual el asumirla como cierta
por las ventajas prácticas que ofrece.
Función de distribución
Sea X una variable aleatoria y x un valor permitido cualesquiera que puede
tomar la variable aleatoria X dentro del rango admisible de valores para dicha
variable aleatoria.
Se define la función de distribución de probabilidad como la probabilidad de
que el suceso que la variable aleatoria observada X tome un valor menor o igual
que el valor x. Es decir,
F(x) = Pr (X ≤ x) (1.6.2)
Esta función de distribución de probabilidad es una probabilidad y por tanto
debe satisfacer las propiedades básicas exigidas por la definición de probabilidad.
Estas restricciones que F(x) debe cumplir pueden resumirse en:
2. F(−∞) = 0 y F(∞) = 1.
F(x) F(x)
1 1
0 x 0 x1 x2 x3 x
(a) (b)
Función de densidad
Aunque la función de distribución permite describir de forma completa el mo-
delo de probabilidad para una variable aleatoria, no es la forma de trabajo más
conveniente para la mayoría de los cálculos que se requieren en nuestro caso. Por
ello se suele utilizar la derivada de la función de distribución d F(x)
dx
, en vez de uti-
lizar F(x) directamente. A esta derivada se le denomina función de densidad de
probabilidad, cuando existe, y se define como
f(x) f(x)
0 x 0 x1 x2 x3 x
(a) (b)
R x2
4. x1 f (x)d x = Pr (x1 < X ≤ x2 ).
Media o esperanza
El valor medio o valor esperado de una variable aleatoria X se define a partir
de la función de densidad de probabilidad f (x) como
Z ∞
x = E[x] = x f (x)d(x) (1.6.5)
−∞
1 X
N
x(t1 ) = xi (t1 ) (1.6.6)
N i=1
Para una cierta función de una variable aleatoria g(x), puede definirse también,
y de forma sencilla la esperanza matemática de dicha función:
Z ∞
E[g(x)] = g(x) f (x)d(x) (1.6.7)
−∞
Momentos
Una función g(x) de importancia considerable es g(x) = x n , ya que nos con-
duce al concepto genérico de momento de una variable aleatoria. Se define, el mo-
mento de orden n de una variable aleatoria X como
Z ∞
n
E[x ] = x n f (x)d(x) (1.6.8)
−∞
De todos los posibles momentos definibles para una variable aleatoria, los dos
de mayor importancia práctica son los momentos de primer y de segundo orden.
El momento de primer orden, n = 1, es el valor medio que ya hemos comentado
anteriormente y el de segundo orden, n = 2, se denomina valor cuadrático medio.
Z ∞
2
E[x ] = x 2 f (x)d(x) (1.6.9)
−∞
1 XX
N N
2
E[x (t1 )] = 2 xi (t1 )x j (t1 ) (1.6.10)
N i=1 j=1
Momentos centrados
Estos momentos pueden definirse de forma que sean momentos centrados en
torno al valor medio, para ello se definen como:
Z ∞
n
E[(x − x) ] = (x − x)n f (x)d(x) (1.6.11)
−∞
De todos los momentos centrados, el más conocido y utilizado es el de segundo
orden, también conocido como la varianza de una variable aleatoria x. Se define
como la esperanza matemática de (x − x)2 y viene dada por:
Z ∞
2 2
σ = E[(x − x) ] = (x − x)2 f (x)d(x) (1.6.12)
−∞
En el caso de que la variable aleatoria sea un vector el concepto se conoce
como matriz de covarianza
Z ∞ Z ∞
T
E[(x − x)(x − x) ] = ... (x − x)(x − x)T p(x)d(x1 ) . . . d(xn )
x1 =−∞ xn =−∞
(1.6.13)
En muchos casos suele utilizarse la varianza o covarianza muestral, es decir
el valor obtenido experimentalmente en una o varias realizaciones de dicha variable
aleatoria. Por ejemplo si hemos observado xi (t), i = 1 . . . N realizaciones de una
variable aleatoria x a lo largo de un cierto periodo de tiempo, para dos instantes de
tiempo dados t1 y t2 el valor de la covarianza se define como
0.8
0.6
0.4
0.2
Rxx_1_2
−0.2
−0.4
−0.6
−0.8
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t
que en el caso de que el proceso estocástico tenga media cero ambas expresiones
coinciden.
Si observamos la definición de la función de autocorrelación, esta representa
el valor esperado del producto de las variables aleatorias x(t1 ) y x(t2 ), que corres-
ponden a muestras de un mismo proceso en dos instantes diferentes de tiempo.
Este valor esperado dependerá de lo rápidamente que varíe la salida del proceso.
Intuitivamente se puede ver que si suponemos dos instantes de tiempo cercanos, la
salida habrá variado poco por lo que el valor de la correlación será alto; mientras
que si se toman dos instantes de tiempo muy separados entre sí, probablemente el
valor de la correlación será bajo.
Esta función de autocorrelación tiene una gran importancia práctica en la iden-
tificación de sistemas como se verá más adelante.
Si la función de autocorrelación Rx x (t1 , t2 ) es función sólo de la diferencia de
tiempo τ = t2 − t1 con independencia del valor del tiempo t1 que se tome, se puede
expresar entonces como:
Rx x (t, t + τ ) = Rx x (τ ) (1.6.18)
30 1. Introducción
0.9
0.8
0.7
0.6
0.5
Rxx
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12 14 16 18
n
Ejemplo 1.6.1: Supongamos una señal simple de tipo triangular, y veamos como
se puede obtener las funciones de autocorrelación y autocovarianza mediante el uso
de la función xcorr y xcov de Matlab. Definimos el vector x de nueve elementos y
aplicamos a continuación la función xcorr tal y como se muestra a continuación,
» x=[0.1 0.2 0.3 0.4 0.5 0.4 0.3 0.2 0.1]’;
» Rxx=xcorr(x,x);
» plot(Rxx)
en la figura 1.7 se muestra la función de autocorrelación generada para dicha señal.
Se procede de forma similar para obtener la función de autocovarianza
» x=[0.1 0.2 0.3 0.4 0.5 0.4 0.3 0.2 0.1]’;
» Cxx=xcov(x,x);
» plot(Cxx)
y en la figura 1.8 se muestra la función de autocovarianza generada para dicha
señal.
Rx x (τ ) = Rx x (−τ ) (1.6.19)
Rx x (0) ≥ Rx x (τ ) (1.6.20)
1.6. Procesos estocásticos o aleatorios 31
0.9
0.8
0.7
0.6
0.5
0.4
0.3
Cxx
0.2
0.1
−0.1
−0.2
−0.3
−0.4
−0.5
0 2 4 6 8 10 12 14 16 18
n
Rx x (0) = x 2
= E[x 2 (t)]
Z T
1
= lim [x(t)]2 dt (1.6.21)
T →∞ 2T −T
Rx y (t, t + τ ) = E[x(t)y(t + τ )]
1 X
N
= xi (t).yi (t + τ ) (1.6.22)
N i=1
Si en esta definición se supone que ambos procesos son estacionarios conjunta-
mente, entonces la función de correlación cruzada dependerá sólo de la diferencia
de tiempo τ . Puede ocurrir que los procesos estocásticos sean individualmente es-
tacionarios, pero que no lo sean conjuntamente, en cuyo caso la expresión de la
función de correlación cruzada dependerá de t además de τ .
32 1. Introducción
Rx y (τ ) = R yx (−τ ) (1.6.25)
1
|Rx y (τ )| ≤ [Rx x (0).R yy (0)] 2 (1.6.26)
se deduce que
Z T Z ∞
2 1
x T (t) dt = |X T (ω)|2 dω (1.6.31)
−T 2π −∞
1
Sx x (ω) = lim |X T (ω)|2 (1.6.33)
T →∞ 2π T
1. Una señal u(t) m-dimensional puede ser asociada con una función matricial
hermítica m × m Suu (ω), a la que se denomina su espectro. ( Una matriz de
coeficientes complejos A se dice hermítica si A∗ = A , donde el símbolo *
expresa la matriz traspuesta conjugada).
Estas matrices hermíticas, son matrices simétricas con autovalores reales por
lo que siempre pueden ser diagonalizadas.
y(t) = G( p)u(t)
entonces
donde los bloques diagonales Syy (ω) y Suu (ω) corresponden a los espectros de las
señales y y u respectivamente. Y los bloques no diagonales se denominan espectro
cruzado entre y y u. Como resulta que Szz (ω) es una matriz hermítica tenemos que
∗
Syu (ω) = Suy (ω) (1.6.39)
De aquí se obtiene una definición muy útil que dice que: dos señales son in-
correladas si su espectro cruzado es idénticamente cero.
Sx x (ω) = p, −∞ ≤ ω ≤ +∞ (1.6.40)
Este proceso, se caracteriza además porque la función de autocorrelación del
mismo es una función δ de Dirac multiplicada por el valor de la densidad espectral
p, tal y como se muestra en la figura 1.9.
Rx x (τ ) = pδ(τ ) (1.6.41)
El ruido blanco tiene su energía dividida por igual entre todas las frecuencias,
esto implica una energía infinita lo que no es real. Es por tanto una señal idealizada.
Una característica notable del ruido blanco es que la historia pasada del mismo no
contiene información acerca de su valor futuro.
Esta función es ideal desde el punto de vista de la identificación de procesos
ya que al presentar densidades a todas las frecuencias constituye una señal de ex-
citación que generará respuesta por parte del proceso que se trata de identificar a
36 1. Introducción
Rxx
0 t
Sxx
0 w
Sxx
0 w
todas esas frecuencias. De esta forma con una única señal de entrada podremos
conocer la respuesta del sistema que queremos identificar a todas las frecuencias
del espectro.
En realidad el ruido blanco idealmente definido no es viable físicamente ya que
necesitaríamos una energía infinita para estimular un número infinito de frecuen-
cias. Pese a ello, el concepto de ruido blanco resulta de tanta utilidad que se utiliza
una versión limitada del mismo, en el que se tiene densidad espectral constante en
una cierta banda de frecuencias y densidad cero en el resto.
1
ω(t) = vw (t) (1.6.46)
0.1 p + ω12
donde vw (t) es un ruido blanco.
1.6. Procesos estocásticos o aleatorios 39
Bibliografía
[1] L. Ljung, System Identification: Theory for the User, Prentice Hall, 1987.
[5] G.R. Cooper and C.D McGuillem, Probabilistic Methods of Signal and Sys-
tem Analysis, Oxford University Press, 1999.
[7] B.C. Kuo, Automatic Control Systems, Ed. Prentice Hall, 1991.
2.1. Introducción
Modelos de entrada/salida.
En esta clase de modelos se busca una descripción matemática que exprese
la relación que existe entre la entrada del sistema y la salida del mismo. Estos
modelos no describen el funcionamiento interno del sistema, sino meramente
la relación entre la entrada y la salida. Podemos encontrarnos con sistemas
diferentes pero que presentan la misma relación entrada/salida por lo que
dan lugar al mismo modelo matemático. Estos tipos de modelos son lo que
podríamos denominar modelos clásicos.
de diferentes formas, por lo que un mismo sistema podrá ser descrito por
diferentes modelos matemáticos. Estos tipos de técnicas han dado lugar a lo
que se ha denominado teoría moderna de control.
dn dn−1
y(t) + a n−1 n−1 y(t) + . . . + a0 y(t) = (2.3.1)
dt n dt
m
d dm−1
bm m u(t) + bm−1 n−1 u(t) + . . . + b0 u(t) (2.3.2)
dt dt
donde los coeficientes ai , i = 0, 1, . . . , n − 1 y b j , j = 0, 1, . . . , m son números
reales, u(t) es la entrada al sistema e y(t) es la salida del mismo. Si estos coefi-
2.3. Modelos temporales 43
Respuesta impulsional
Dado un sistema lineal invariante en el tiempo, que para una entrada u(t) da
una respuesta y(t), se define como respuesta impulsional del sistema la salida
g(t) que daría el sistema cuando la entrada al mismo es un impulso unitario δ(t).
Esta respuesta impulsional g(t) contiene toda la información necesaria sobre
el sistema, y se puede obtener la salida del mismo, ante cualquier entrada u(t), sin
más que realizar la convolución en el dominio del tiempo con esta señal, es decir,
u(t) y(t)
δ(t) g(t)
t t
u(t) y(t)
g(t)
u(t) y(t)
Escalado ag(t)
aδ(t)
t t
u(t) y(t)
Desplazamiento g(t-to)
δ(t-to)
to t t
to t1 t to t1 t
Función de transferencia
y en tiempo discreto
G(z) = Z[g(k)] (2.3.10)
dn dn−1
y(t) + a n−1 n−1 y(t) + . . . + a0 y(t) =
dt n dt (2.3.13)
dm dm−1
bm m u(t) + bm−1 n−1 u(t) + . . . + b0 u(t)
dt dt
donde u(t) es la entrada al sistema e y(t) la salida del mismo. Si suponemos con-
diciones iniciales nulas y tomamos transformadas de Laplace en ambos lados de la
ecuación 2.3.13, el resultado es
s n + an−1 s n−1 + . . . + a0
Y (s) = U (s) (2.3.15)
bm s m + bm−1 s m−1 + . . . + b0
y de aquí que la forma general de la función de transferencia G(s) para un sistema
físico descrito por una ecuación diferencial ordinaria de la forma 2.3.13 sea una
función racional de s del tipo
s n + an−1 s n−1 + . . . + a0
G(s) = (2.3.16)
bm s m + bm−1 s m−1 + . . . + b0
Ejemplo 2.3.1: Un automóvil responde a una fuerza aplicada f (t) del motor y a
una fuerza debida a la fricción ρv(t), proporcional a la velocidad v(t) del automó-
vil. La ecuación diferencial del sistema es
es decir,
(ms + ρ)V (s) = F(s) (2.3.19)
y la función de transferencia de la velocidad respecto de la fuerza es
V (s) 1
= (2.3.20)
F(s) ms + ρ
2.3. Modelos temporales 47
Esta ecuación 2.3.22 muestra que el valor y(k), es decir la solución de la ecuación
en el instante k-ésimo, es función de n + m + 1 datos. Estos datos son: la entrada en
ese instante u(k), las m entradas anteriores u(k − 1), . . . , u(k − m) y las n salidas
anteriores del sistema y(k − 1), . . . , y(k − n).
Si la señal de entrada es causal, es decir si u(k) = 0 para k < 0, entonces
u(−1) = u(−2) = . . . = u(−m) = 0, por lo que sólo necesitaríamos conocer n
condiciones iniciales correspondientes a los valores de y(−1), y(−2), . . . , y(−n)
para poder calcular iterativamente el valor que tomará la salida del sistema en
y(0), y(1), y(2), . . . a medida que se producen las respectivas entradas de control
u(0), u(1), u(2), . . .
y de aquí que
y(0) = −0, 2y(−1) + u(0) (2.3.25)
y como la secuencia de entrada toma valores u(0) = 0, u(1) = 1, u(2) =
1, u(3) = 1, . . . tendremos que
bm z −m + bm−1 z −m+1 + . . . + b0
G(z) = (2.3.26)
z −n + an−1 z −n+1 + . . . + a0
En el caso del ejemplo 2.3.2, la función de transferencia queda
Y (z) 1
G(z) = =
U (z) 1 + 0.2z −1
Si reflexionamos un poco sobre las expresiones 2.3.21 y 2.3.26 nos encontra-
mos con que el proceso que hemos seguido para obtener la función de transferen-
cia en z de un sistema en tiempo continuo es simple y prácticamente inmediato.
Sin embargo nos encontramos con que salvo algunos sistemas para los cuales la
ecuación en diferencias resulta el modo natural de expresarlo, una gran mayoría
de sistemas físicos son descritos por ecuaciones diferenciales ordinarias y no por
ecuaciones en diferencias. En estos casos el proceso de obtención del modelo en
tiempo discreto del sistema resulta más complejo.
x(t) x*(t)
valores {x(0), x(T ), x(2T ), x(3T ), . . .}. Esta secuencia de valores la podemos
denominar la señal muestreada y la representaremos como x ∗ (t) (figura 3.3). Esta
señal muestreada x ∗ (t), puede ser expresada matemáticamente como la suma de
una serie infinita de valores de la siguiente forma
∞
X
x ∗ (t) = x(kT )δ(t − kT ) (2.3.27)
k=0
X∞
X ∗ (s) = L[x ∗ (t)] = L[ x(kT )δ(t − kT )]
k=0
∞
X
= L[x(kT )δ(t − kT )]
k=0
∞
X
= x(kT )L[δ(t − kT )]
k=0
X∞
= x(kT )e−kT s (2.3.29)
k=0
x(kT) x(t)
B0
eT s = z (2.3.30)
o
1
s= ln z (2.3.31)
T
Si sustituimos en la ecuación 2.3.29 el término s por la expresión 2.3.31
∞
X
X ∗ (s) |s= 1 ln z = x(kT )z −k = X (z) (2.3.32)
T
k=0
Bloqueadores de señal
El proceso de bloqueo de señal es el contrario del de muestreo, y tiene por
objetivo el obtener una señal de tiempo continuo a partir de una señal de tiempo
discreto. Hay que tener en cuenta que las acciones de control que hay que ejercer
sobre los sistemas físicos reales normalmente son señales continuas.
El modo más simple de obtener una señal continua a partir de una señal de
tiempo discreto consiste en suponer que el valor en tiempo continuo de esa señal
de tiempo discreto se mantiene hasta el tiempo del proximo ciclo (este tipo de
bloqueador se denomina bloqueador de orden cero, ver figura 2.3). Es decir que la
salida del bloqueador de orden zero será
x(kT)
u (t-kT) u (t-(k+1)T)
0 0
∞
X
L[y(t)] = Y (s) = L[x(kT )[u 0 (t − kT ) − u 0 (t − (k + 1)T )]]
k=0
∞
X
= x(kT )L[u 0 (t − kT ) − u 0 (t − (k + 1)T )]
k=0
X∞
e−kT s e−(k+1)T s
= x(kT )[ − ]
k=0
s s
∞
1 − e−T s X
= x(kT )e−kT s (2.3.35)
s k=0
1 − e−T s ∗
Y (s) = X (s) (2.3.36)
s
Si en la expresión 2.3.36 observamos que X ∗ (s) es la transformada de Laplace
de la señal muestreada de entrada y que Y (s) es la transformada de la salida, se
puede deducir que la función de transferencia del bloqueador de orden cero será
1 − e−T s
G B OC (s) = (2.3.37)
s
Hemos visto en las secciones anteriores dos conceptos muy importantes. El
primero de ellos era que al muestrear un sistema continuo, y por medio de la trans-
formación matemática e T s = z obtenemos un modelo que nos permite analizar por
52 2. Técnicas clásicas de modelado de sistemas
X∞
= g(t − kT )x(kT ) (2.3.39)
k=0
2.3. Modelos temporales 53
Y (z) = Z[y(t)]
∞ X
X ∞
= [ g(i T − kT )x(kT )]z −i
i=0 k=0
∞ X
X ∞
= g( j T )x(kT )z −( j+k)
j=0 k=0
∞ X
X ∞
= g( j T )x(kT )z − j z −k
j=0 k=0
∞
X ∞
X
−j
= g( j T )z x(kT )z −k
j=0 k=0
Solamente en el caso de que la entrada al sistema sea una señal impulso mues-
treada, se verificará que
1
G(s) =
s+2
Este sistema tiene por respuesta impulsional la siguiente función
g(t) = e−2t
si este sistema lo muestreamos con periodo T obtendremos
g(kT ) = e−2kT , k = 0, 1, 2, . . .
y de esta secuencia podemos obtener la transformada z, es decir
∞
X ∞
X ∞
X 1
G(z) = g(kT )z −k = e−2kT z −k = (e2T z)−k =
k=0 k=0 k=0
1− e−aT z −1
2.3. Modelos temporales 55
∞
X
∗
x (t) = x(t)δ(t − kT )
k=0
∞
X
= x(t) δ(t − kT ) (2.3.47)
k=0
X∞
L[ δ(t − kT )] = L[δ(t)] + L[δ(t − T ) + L[δ(t − 2T )] + . . .
k=0
= 1 + e−T s + e−2T s + . . .
1
= (2.3.48)
1 − e−T s
Haciendo la transformada de Laplace de la señal muestreada x ∗ (t) tenemos
∞
X
X ∗ (s) = L[x ∗ (t)] = L[x(t) δ(t − kT )] (2.3.49)
k=0
Z ∞ Z c+ j∞
−st 1
L[ f (t)g(t)] = f (t)g(t)e dt = F( p)G(s − p)d p (2.3.50)
0 2π j c− j∞
56 2. Técnicas clásicas de modelado de sistemas
Aplicando esta expresión a la ecuación 2.3.49 y teniendo en cuenta que las trans-
formadas de Laplace de x(t) es X (s) y la del sumatorio de impulsos de Dirac es la
de la expresión 2.3.48, resulta la siguiente expresión de la integral de convolución.
Z c+ j∞
∗ 1 1
X (s) = X ( p) dp (2.3.51)
2π j c− j∞ 1− e−T (s− p)
La evaluación de esta integral de convolución a lo largo de la línea c − j∞
a c + j∞ puede realizarse por el método de los residuos formando un contorno
cerrado consistente en la propia línea c − j∞ a c + j∞ y un círculo 0 de radio
infinito en el semiplano izquierdo que incluya todos los polos de X ( p). De esta
forma la ecuación 2.3.51 se podrá expresar como
Z c+ j∞
∗ 1 1
X (s) = X ( p) dp
2π j c− j∞ 1 − e (s− p)
−T
I
1 1
= X ( p) dp
2π j 1 − e (s− p)
−T
Z
1 1
− X ( p) dp (2.3.52)
2π j 0 1 − e (s− p)
−T
En el caso de que X (s) este expresado por una expresión polinómica X (s) =
N (s)
D(s)
en la que el grado del denominador sea mayor que el del numerador, el segun-
do término de la expresión 2.3.52 se hace cero. Y de aquí que
I
∗ 1 1
X (s) = X ( p) dp (2.3.53)
2π j 1 − e (s− p)
−T
Polos simples ( p = pi ).
Para este caso el residuo del polo es
X ( p)
R pi = lim ( p − pi ) (2.3.55)
p→ pi 1 − e−T (s− p)
1 dn−1 n X ( p)
Rpj = lim (p − pj) (2.3.56)
(n − 1)! p→ p j d p n−1 1 − e−T (s− p)
" 2
#
( p+2)
R pi =−2 = lim ( p + 2)
p→−2 1 − e−T (s− p)
2
= lim
p→−2 1 − e−T (s− p)
2
=
1 − e−T s e−2T
por tanto tendremos que
2
X ∗ (s) = (2.3.57)
1− e−T s e−2T
y de esta expresión teniendo en cuenta que z = e T s obtendríamos la transformada
en z,
2
X (z) = (2.3.58)
1− z −1 e−2T
Si suponemos que el periodo de muestreo es de 0.1 segundos la transformada
z de la señal X (s) muestreada tomará el siguiente valor,
2
X (z) = (2.3.59)
1 − 0, 8187z −1
Si comparamos las curvas de respuesta en el dominio del tiempo de las señales
X (s) y X (z) se puede observar en la figura 2.7 la correspondencia existente entre
ambas.
Impulse Response
From: U(1)
2
1.8
1.6
1.4
1.2
Amplitude
To: Y(1)
0.8
0.6
0.4
0.2
0
0 0.5 1 1.5 2 2.5 3
Time (sec.)
Impulse Response
From: U(1)
2
1.8
1.6
1.4
1.2
Amplitude
To: Y(1)
0.8
0.6
0.4
0.2
0
0 0.5 1 1.5 2 2.5 3
Time (sec.)
R(z) Y(z)
G (z)
p y(n)
r(n)
1 − e−T s
G B OC (s) =
s
de aquí tenemos que el conjunto bloqueador-proceso tendrá la siguiente función de
transferencia en el campo de Laplace
1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s) (2.3.60)
s
Por otra parte tenemos que la señal de entrada al sistema es una señal mues-
treada R ∗ (s), por lo que a la salida del proceso tendremos
1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s)
s
operando con esta función de transferencia tenemos que
G p (s) e−T s G p (s)
Z[G(s)] = Z −
s s
G p (s) e−T s G p (s)
= Z [ ] − Z[
s s
G p (s)
= (1 − z −1 )Z (2.3.64)
s
60 2. Técnicas clásicas de modelado de sistemas
G (s)
y si evaluamos Z[ ps ] por el método de los residuos como hicimos en el epígrafe
anterior para la función de transferencia muestreada de una señal, obtendremos la
función de transferencia discreta equivalente para dicho sistema continuo.
" 3
#
p( p+1)
R pi =−1 = lim ( p + 1)
p→−1 1 − e−T (s− p)
−3
= lim
p→−1 1 − e−T (s− p)
−3
=
1 − e−T s e−T
y
" 3
#
p( p+1)
R pi =0 = lim p
p→0 1 − e−T (s− p)
3
= lim
p→0 1 − e−T (s− p)
3
=
1 − e−T s
y sustituyendo e T s por z tendremos que
3 3
G(z) = (1 − z −1 ) − (2.3.65)
1 − z −1 1 − z −1 e−T
Si suponemos que el periodo de muestreo es de 0.1 segundos la transformada
z del sistema tomará el siguiente valor,
−1 3 3
G(z) = (1 − z ) − (2.3.66)
1 − z −1 1 − 0, 3678z −1
2.3. Modelos temporales 61
y de aquí que
R ∗ (s)
E ∗ (s) =
1 + G H ∗ (s)
De aquí, teniendo en cuenta que Y (s) = G ∗ (s)E ∗ (s), se deduce que
∗
G ∗ (s)R ∗ (s)
Y ∗ (s) =
1 + G H ∗ (s)
De esta expresión, y reescribiéndola en términos de la transformada z llegamos a
la siguiente expresión
G(z)R(z)
Y (z) =
1 + G H (z)
Luego la función de transferencia muestreada para un ciclo de control típico
será
Y (z) G(z)
= (2.3.67)
R(z) 1 + G H (z)
Veamos sobre este esquema básico de un bucle de control muestreado que se ha
mostrado en la figura 2.9 , el que corresponde a un bucle de control por computador
donde se incluye el efecto del muestreo de la señal de error y el bloqueo de la salida
del controlador digital para hacerla una señal continua (figura 2.10).
Veamos que ecuaciones tenemos en el sistema. En primer lugar habíamos visto
que la ecuación del bloqueador de orden cero era
1 − e−T s
G B OC (s) =
s
62 2. Técnicas clásicas de modelado de sistemas
H(s)
1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s) (2.3.68)
s
Por otra parte la señal de salida del sistema será
luego
y de aquí podemos deducir que la función de transferencia del lazo de control con
muestro de señal de error y bloqueo de la señal de control del regulador es
Y (z) G c (z)G(z)
= (2.3.74)
R(z) 1 + G c (z)G(z)
Convertidor
A/D
Computador
a) Implementación
b) Esquema equivalente
e(t) u(t)
G (s)
c
U (s) 1
G c (s) = = (2.3.75)
E(s) s
esta expresión corresponde a una integración de la forma
Z t
u(t) = u(t0 ) + e(t)dt (2.3.76)
t0
y por lo tanto
U (z) T
G e (z) = = (2.3.79)
E(Z ) z−1
e(t)
xxx
xxx
xxx
xxx
xxx
xxxxxxx
xxx xxx
xxx
xxxxxxx
xxx
xxx xxx
xxx
xxxxxxx
xxx
xxx
xxx xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
t
(a)
e(t) xxx
xxx
xxx
xxx
xxx
xxx
xxxx
xxxx
xxxx xxx
xxxx
xxxx
xxxxxxx xxx
xxx
xxxx
xxxx
xxxxxxx
xxx xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx xxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx
xxx
xxxxxxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx
xxx
xxxxxxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx xxxxxxx
xxx xxx
xxx
xxxx
xxxx
xxxxxxx
xxx xx
xxx
xxxx
t
(b)
e(t) x
xxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxx
xxxxxxx xxx xxx
xxx xxx
xxxxxxx xxx xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx
xxxxxxx xxx
t
(c)
y por lo tanto
U (z) Tz
G e (z) = = (2.3.83)
E(z) z−1
Método trapezoidal.
También se le conoce como método de Tustin o transformación bilineal. En
este caso el área bajo la integral se aproxima promediando los valores de la
señal de error en los instantes k y k + 1 y multiplicando por el periodo T .
T
u(k + 1) = u(k) + [e(k) + e(k + 1)] (2.3.85)
2
T
(z − 1)U (z) = (z + 1)E(z) (2.3.86)
2
y por lo tanto
U (z) T (z + 1)
G e (z) = = (2.3.87)
E(Z ) 2(z − 1)
Controlador
analógico Proceso
s+4
G c (s) =
s(s + 1)
aplicando la transformación bilineal tendríamos que la G e (z) del regulador discreto
equivalente será
w
Y (s) = G(s) . (2.4.1)
s 2 + ω2
2.4. Modelos frecuenciales 69
c c∗
Y (s) = . . . + + . (2.4.2)
s + jω s − jω
Si todos los polos del sistema dan una respuesta estable, su respuesta se amor-
tiguará con el tiempo por lo que la respuesta del mismo en régimen permanente
sólo retendrá los dos últimos términos del desarrollo 2.4.2. Por lo que la respuesta
en régimen permanente en el dominio del tiempo tomará la forma
I m[G( jω)]
φ = arctan = 6 G( jω) (2.4.5)
Re[G( jω)]
La respuesta frecuencial de un sistema suele representarse por medio de dos
curvas, en una de las cuales se muestra la magnitud |G( jω)| y en la otra el desfase
6 G( jω) para cada valor de ω. La respuesta frecuencial permite determinar la esta-
Bode Diagrams
From: U(1)
10
−5
−10
Phase (deg); Magnitude (dB)
−15
−20
−25
−30
−50
To: Y(1)
−100
−150
−200
−1 0 1
10 10 10
Frequency (rad/sec)
5
G(s) = (2.4.6)
+s+5 s2
veamos su respuesta en frecuencia, para ello utilizaremos la instrucción bode() de
MATLAB, tal como se muestra a continuación
num=[5];
den=[1 1 5];
sys=tf(num,den);
bode(sys);
u(t) = sin ωt
y al muestrearla
u(n) = sin(nωT )
donde T = ω2πT (ωT es la frecuencia de muestreo utilizada en el sistema). Como
resultado el sistema generará en su salida una sucesión de impulsos.
X
n
y(n) = g(k) sin((n − k)ωT ) (2.4.7)
k=0
X
n
= I m{ g(k)e jω(n−k)T } (2.4.8)
k=0
X
n
= I m{e jωnT g(k)e− jωkT } (2.4.9)
k=0
y en esta expresión se puede observar que la salida del sistema es un señal sinusoi-
dal que tiene la misma frecuencia que la señal de entrada y esta desfasada respecto
a ella, y cuyo módulo depende del |G(z)|z=e jωT . Resulta clara la similitud con la
respuesta para el caso continuo que veíamos en la ecuación 2.4.3.
Ejemplo 2.4.2: Sea el sistema del ejemplo anterior cuya función de transferencia
es
5
G(s) = (2.4.15)
s2 + s + 5
supongamos que dicho sistema se muestrea, y que se obtiene el equivalente dis-
creto para periodos de muestreo T = 0, 1 y T = 1, para lo que utilizaremos la
instrucción c2d() de MATLAB. Obtendremos sus curvas de respuesta en frecuen-
cia, para ello utilizaremos de nuevo la instrucción bode() de MATLAB, tal como
se muestra a continuación
num=[5];
den=[1 1 5];
sys=tf(num,den);
sysd1=c2d(sys,0.1);
sysd2=c2d(sys,1);
bode(sys,sysd1,sysd2);
Bode Diagrams
From: U(1)
20
−20
Phase (deg); Magnitude (dB)
−40
−60
−80
100
50
−50
To: Y(1)
−100
−150
−200
−250
−300
−1 0 1 2
10 10 10 10
Frequency (rad/sec)
Como el tren de impulsos es una función periódica, se puede representar como una
serie de Fourier
X∞ ∞
1 X j (2π n/T )t
δ(t − kT ) = e (2.4.18)
k=−∞
T k=−∞
f(t) F(ω)
A
F
t
←→ ω
F
1
t
← → ω
T ω
= f(t) F(ω)
=
F A/T
t
← → ω
F*(ω)
ωm ωs
F(ω)
ωs > 2ωm
F*(ω)
ωs < 2ωm
ωm
ωm ωs
En este caso, no se puede reconstruir la señal original con un filtro paso-bajo. Este
nos lleva a que hay un límite a partir del cual no se puede reconstruir la señal:
2π
> 2ωm (2.4.23)
T
donde ωm es la mayor frecuencia de interés en la señal original. Esta ecuación se
denomina teorema de muestreo, de Nyquist o de Shannon.
H(z)
V(z)
U(z) Y(z)
G(z)
Parte determinística
V (z) = H (z)E(z)
con
∞
X
H (z) = h(i)z −i
i=0
A(z)
Y (z) = G(z)U (z) = U (z)
B(z)
con lo que un modelo genérico de proceso estocástico es
Bibliografía
3.1. Introducción
R
i
u C u
e s
Podríamos dar una primera definición, un tanto informal, del concepto de estado.
Definición:
El estado de un sistema dinámico en un instante de tiempo t0 se puede definir
como el conjunto más pequeño de valores numéricos que es suficiente para de-
terminar la evolución futura del sistema para todo t ≥ t0 conocidos dichos valores
numéricos y las entradas al sistema para todo t ≥ t0 .
Ejemplo 3.1 Supongamos el sistema mostrado en la figura 3.1 que está consti-
tuido por una resistencia y un condensador.
Solución:
La ecuación diferencial que caracteriza al sistema es la siguiente,
du s 1
= (u e (t) − u s (t))
dt RC
si tomamos transformadas de Laplace en esta ecuación obtenemos
1
sUs (s) − u s (0) = [Ue (s) − Us (s)]
RC
y operando sobre esta expresión obtenemos que
1
1 RC
Us (s) = 1 u s (0) + 1
Ue (s)
RC
+s RC
+s
3.2. Concepto de estado de un sistema 81
Esta condición implica que el sistema es determinista y causal, por lo que los
valores de las señales de salida en un instante de tiempo dado no dependen
de salidas posteriores al mismo.
x(t )
0
x(t )
1
x
2
x
1
.
u(t) + x(t) x(t) + + y(t)
B x C
+
L i L
i 1 2
1 2
u C C u
e 1 2 s
2. Elección de las variables de estado del sistema, que en una primera aproxi-
mación se puede realizar observando los elementos dinámicos del sistema.
Nótese que el número de variables de un sistema debe ser igual al orden de
las ecuaciones diferenciales que lo describen.
Solución:
Las ecuaciones del sistema de acuerdo con las leyes de Kirchoff son:
di 1
ue = L 1 + u C1
dt
di 2
u C1 = L2 + u C2
dt
du C1
C1 = i1 − i2
dt
du C2
C2 = i2
dt
us = u C2 (3.2.14)
En este ejemplo la elección de las variables de estado es bastante clara, ya
que las variables que acumulan energía en el sistema son las tensiones en los con-
densadores y las intensidades en las bobinas. Tomando como variables de estado
las tensiones en los condensadores y las intensidades que circulan en las bobinas
tendremos que
di 1 1 1
= ue − uC
dt L1 L1 1
di 2 1 1
= uC − uC
dt L2 1 L2 2
du C1 1 1
= i1 − i2
dt C1 C1
du C2 1
= i2 (3.2.15)
dt C2
es decir
1 1
0 0 0
i1 L1 i1 L1
1
d
i2 = 0 0 1 0
L 2 i2
+ ue
L2
(3.2.16)
dt
u C1 1 1
0 0 u C1
C1 C1 0
u C2 1 u C2
0 C2
0 0 0
y la ecuación de salida sería
i1
i2
u s = [0 0 0 1]
(3.2.17)
u C1
u C2
86 3. Modelado y análisis de sistemas en el espacio de estados
El Banco aumenta el dinero en efectivo del que dispone por medio de las
imposiciones de los clientes en sus cuentas y por medio de los rendimientos
que el Banco obtiene de las inversiones que realiza.
El Banco disminuye el dinero efectivo del que dispone por medio de las
retiradas de fondos de las cuentas de los clientes, por el pago de los salarios
a los empleados del Banco y los diferentes suministros necesarios, y por las
inversiones que realiza el Banco.
El Banco paga un interés r1 fijo por el dinero que los clientes tienen en sus
cuentas, y lo abona mensualmente. A su vez obtiene una rentabilidad r2 por
sus inversiones, que le es abonada mensualmente.
Solución:
Denominemos Rc (k) al total del dinero que los clientes tienen en sus cuentas, Rb (k)
al dinero que el banco tiene invertido, Cb (k) el capital del banco al final del mes,
Dc (k) a los nuevos depósitos que realizan los clientes en el mes k-ésimo, G c (k)
a los gastos o devoluciones de dinero a los clientes de sus cuentas en dicho mes,
G b (k) a los gastos necesarios para el funcionamiento del banco (salarios de los
empleados y los diferentes suministros de material) y E(k) al dinero en efectivo en
la caja del Banco.
El saldo total de las cuentas de los clientes en el mes (k+1) es igual al que
tenían en el mes k, más las nuevas imposiciones, menos las retiradas y más
los intereses que la Caja les paga por su saldo en ese mes. Es decir:
Rc (k+1) = Rc (k)+r1 Rc (k)+Dc (k)−G c (k) = (1−r1 )Rc (k)+Dc (k)−G c (k)
Rb (k + 1) = Rb (k) + α E(k)
El capital del banco aumenta o disminuye cada mes en una cantidad igual
al beneficio que obtiene del total de inversiones menos los gastos del banco
3.2. Concepto de estado de un sistema 87
para obtenerlos (lo que les paga a los clientes de intereses por las cuentas
más lo que paga a empleados y suministradores):
El saldo total de las cuentas de los clientes, más el capital del banco debe ser
igual al dinero que tiene el banco en sus inversiones más el dinero efectivo
en la caja.
Rc (k + 1) 1 + r1 0 0 Rc (k) 1 −1 0 Dc (k)
Rb (k + 1) = α 1 − α α + 0
Rb (k) 0 0 G c (k)
Cb (k + 1) −r1 r2 1 Cb (k) 0 0 −1 G b (k)
(3.2.18)
La salida del sistema en este caso podría ser el propio vector de estado.
Una gran parte de los sistemas físicos que nos encontramos nos conducen a
ecuaciones de estado no lineales. Estos tipos de ecuaciones presentan dificultades
prácticas para su resolución por lo que cuando resulta posible se trata de obtener
aproximaciones lineales a un cierto funcionamiento no lineal en el entorno de un
cierto punto de operación. Supuesto un cierto punto de operación del sistema (x =
x0 , u = u0 ), una aproximación lineal al sistema en el entorno de ese punto de
operación se obtiene a partir del desarrollo en serie de Taylor.
El desarrollo en serie de Taylor para un sistema multivariable definido por el
sistema de ecuaciones
d
x̃(t) = A x̃(t) + B ũ(t) (3.2.21)
dt
ỹ(t) = C x̃(t) + D ũ(t) (3.2.22)
88 3. Modelado y análisis de sistemas en el espacio de estados
A = ∇ f x | x0 ,u0 (3.2.23)
B = ∇ f u | x0 ,u0 (3.2.24)
C = ∇g x | x0 ,u0 (3.2.25)
D = ∇g u | x0 ,u0 (3.2.26)
ẋ1 = −a1 x2
ẋ2 = b1 x1 − b2 x2 − b3 u 1
ẋ3 = c1 x2 + c2 u 2 (T2 − x3 ) + c3 x2 x3 (3.2.28)
Linealizar el sistema.
Solución:
Sustituyendo las ecuaciones 3.2.28 en las expresiones de las Jacobianas tendremos
que
A = ∇ f x | x0 ,u0
∂ f1 ∂ f1 ∂ f1
∂ x1 ∂ x2 ∂ x3
∂ f2
= ∂ f2 ∂ f2
∂ x1 ∂ x2 ∂ x3
∂ f3 ∂ f3 ∂ f3
∂ x1 ∂ x2 ∂ x3
0 −a 1 0
= b1 −b2 0 (3.2.29)
0 (c1 + c3 x3,0 ) (c3 x2,0 − c2 u 2,0 )
y
3.2. Concepto de estado de un sistema 89
B = ∇ f u | x0 ,u0
∂ f1 ∂ f1
∂u 1 ∂u 2
∂ f2
= ∂ f2
∂u 1 ∂ xu 2
∂ f3 ∂ f3
∂u 1 ∂u 2
0 0
= −b1 0 (3.2.30)
0 c2 (T2 − x3,0 )
Y (s)
F(s) = = C(s I − A)−1 B + D (3.2.37)
U(s)
Como
1
(s I − A)−1 = Ad j (s I − A)T
|s I − A|
se tiene que el polinomio característico del sistema es |s I − A|, y por tanto, los
polos del sistema coinciden con los autovalores de la matriz A.
una elección determinada de dichas variables de estado tiene ciertas ventajas frente
a otra. Veamos a continuación algunos de los métodos más usuales de elección de
las mismas y a que tipo de representaciones dan lugar. Estas representaciones se
denominan formas canónicas, y entre ellas tenemos: la forma canónica controlable,
la forma canónica observable y la forma canónica de Jordan.
se puede observar que la ecuación 3.3.7 ha sido reemplazada por las dos siguientes
expresiones
1
x(t) = u(t) (3.3.9)
M( p)
y(t) = N ( p)x(t) (3.3.10)
Tomando las variables de estado de la siguiente forma
x(t) = x1 (t)
d d
x(t) = x2 (t) = x1 (t)
dt dt
..
.
dn−1 d
n−1
x(t) = xn (t) = xn−1 (t) (3.3.11)
dt dt
donde se ve claramente que se toman como variables de estado las sucesivas deri-
vadas de x(t), la ecuación 3.3.9 se puede reescribir de la siguiente forma
dn 1 an−1 a1 a0
x(t) = u(t) − xn (t) − . . . − x2 (t) − x1 (t) (3.3.12)
dt n an an an an
Las ecuaciones 3.3.11 y 3.3.12 podemos expresarlas de forma matricial como
ẋ1 (t) 0 1 0 ... 0 x1 (t) 0
ẋ2 (t) 0 0 1 ... 0 x2 (t) 0
.. .. .. .. ..
. = . . . + . u(t)
ẋn−1 (t) 0 ... 1
0 0 xn−1 (t) 0
ẋn (t) − aan0 − aan1 − aan2 . . . − an−1
an xn (t) 1
an
(3.3.13)
Para obtener la ecuación de salida partimos de la ecuación 3.3.10, utilizando la
definición de las variables de estado 3.3.11 y suponiendo que n = m obtenemos
que
d
b0 x1 (t) + b1 x2 (t) + . . . + bn−1 xn (t) + bn xn (t) = y(t) (3.3.14)
dt
d
y sustituyendo en esta ecuación x
dt n
por 3.3.12 nos queda la siguiente expresión
a0 a1
y(t) = (b0 − bn )x1 (t) + (b1 − bn )x2 (t) + . . .
an an
an−1 bn
. . . + (bn−1 − bn )xn (t) + u(t) (3.3.15)
an an
3.3. Representación de sistemas en el espacio de estados 93
+ + + + + + y(t)
b b b b
0 1 2 n
u(t) + xn xn-1 x2 x1
x x x
-
a a a
1 2 n
- - -
+ +
x1 (t)
h i
x2 (t) bn
y(t) = b0 − bn a0
b1 − bn aan1 . . . bn−1 − bn an−1 .. + a u(t) (3.3.16)
an an
. n
xn (t)
En esta forma canónica de representación las variables de estado son una com-
binación lineal de las derivadas de las variables de entrada y de salida.
Consideremos un sistema dinámico descrito por una ecuación diferencial de
orden n, como en el caso anterior, y cuya ecuación es la mostrada en 3.3.1. Su-
pongamos el caso donde n = m y definamos las variables de estado de forma que
xn es función de y(t) y u(t), xn−1 es función de y(t), u(t) y sus derivadas y así
sucesivamente, tal y como se muestra a continuación
94 3. Modelado y análisis de sistemas en el espacio de estados
1 bn
y(t) = xn (t) + u(t) (3.3.18)
an an
d d d
xn (t) = an y(t) − bn u(t)
dt dt dt
d d d2 d d2
xn−1 (t) = an−1 y(t) + an 2 y(t) − bn−1 u(t) − bn 2 u(t)
dt dt dt dt dt
..
.
d d d2 dn−1
x2 (t) = a2 y(t) + a3 2 y(t) + . . . + an n−1 y(t) −
dt dt dt dt
d d2 dn−1
−b2 u(t) − b3 2 u(t) − . . . − bn n−1 u(t)
dt dt dt
2
d d d
x1 (t) = a1 y(t) + a2 2 y(t) + . . . + an y n) (t) −
dt dt dt
d d2 dn
−b1 u(t) − b2 2 u(t) − . . . − bn n u(t) (3.3.19)
dt dt dt
que
an−1 an−1 d
xn (t) = xn (t) − (bn−1 − bn )u(t) + xn (t)
an an dt
an−2 an−2 d
xn−1 (t) = xn (t) − (bn−2 − bn )u(t) + xn−1 (t)
an an dt
..
.
a1 a1 d
x2 (t) = xn (t) − (b1 − bn )u(t) + x2 (t) (3.3.21)
an an dt
Para obtener la ecuación de estado que nos falta combinamos las ecuaciones
3.3.21 con la ecuación diferencial original expresada en términos de las variables
de estado que hemos definido
a0 a0 d
0= xn (t) − (b0 − bn )u(t) + x1 (t) (3.3.22)
an an dt
Escribiendo en forma matricial las ecuaciones 3.3.21 y 3.3.22 obtenemos el
conjunto de ecuaciones de estado y de la ecuación 3.3.18 la ecuación de salida, es
decir
0 0 ... 0 0 − aan0 b − bn aan0
x1 (t) 0
x 1 (t)
1 a1
a1
0 . . . 0 0 − an x2 (t) b1 − bn an
d x (t)
2 =
. .. .. .. .. .. + ..
.. . . .
. . . u(t)
dt ..
.
0 an−2 an−2
0 . . . 1 0 − an xn−1 (t) bn−2 − bn an
xn (t)
an−1 an−1
0 0 . . . 0 1 − an xn (t) bn−1 − bn an
(3.3.23)
96 3. Modelado y análisis de sistemas en el espacio de estados
u(t)
+ x1 + x2 + xn + y(t)
x + x x
- + +
- xn-1 -
an an-1 a1
x1 (t)
h i x2 (t) b
.. n
y(t) = 0 0 . . . 0 0 1
. + u(t) (3.3.24)
an an
xn−1 (t)
xn (t)
Y (s) bm s m + . . . + b1 s + b0
G(s) = = (3.3.25)
U (s) an s n + . . . + a 1 s + a 0
donde m ≤ n.
Supongamos en primer lugar que el denominador de dicha función de transfe-
rencia no tiene raíces múltiples, con lo que descomponiendo en fracciones parciales
3.3. Representación de sistemas en el espacio de estados 97
se obtiene que
bm s m + . . . + b1 s + b0
G(s) =
an (s − λ1 )(s − λ2 ) . . . (s − λn )
c1 c2 cn
= + + ... + (3.3.26)
s − λ1 s − λ2 s − λn
c1 c2 cn bn
Y (s) = U (s) + U (s) + . . . + U (s) + U (s) (3.3.27)
s − λ1 s − λ2 s − λn an
1
G i (s) = (3.3.28)
s − λi
a la señal de entrada U (s), lo que implica que si cada una de estas componen-
tes básicas la tomamos como una variable de estado X i (s) que satisface X i (s) =
G i (s)U (s), esto implica que la variable de estado xi (t) así definida satisface la
siguiente ecuación diferencial
d
xi (t) = λi xi (t) + u(t) (3.3.29)
dt
x1 (t) λ1 0 . . . 0 x1 (t) 1
d
x2 (t) = 0 λ2 . . . 0
x2 (t) + 1 u(t) (3.3.31)
dt ...
.
..
..
.
..
.
. .
.. ..
xn (t) 0 0 . . . λn xn (t) 1
98 3. Modelado y análisis de sistemas en el espacio de estados
u(t) + y(t)
b0
+
+ x1 +
- ∫ c1
+
b1
+ xn +
- ∫ cn
bn
x1 (t)
x2 (t) bn
y(t) = [c1 c2 . . . cn ]
.. + a u(t) (3.3.32)
. n
xn (t)
Si en la forma canónica de Jordan todas las raíces del denominador son simples
se la conoce con el nombre de forma canónica diagonal. En la figura 3.7 se muestra
una representación gráfica de la forma canónica de diagonal de un sistema.
En el caso de que el polinomio característico de la función de transferencia
del sistema tenga raíces múltiples, la descomposición en fracciones parciales daría
lugar a una expresión del siguiente tipo
bm s m + . . . + b1 s + b0
G(s) =
an (s − λ1 )k (s − λ2 ) . . . (s − λn ) (3.3.33)
c1 ck ck+1 cn
= + ... + + + ... +
(s − λ1 ) k s − λ1 s − λ2 s − λn
Si suponemos que las condiciones iniciales son nulas la respuesta del sistema
ante una entrada Y (s) será
c1 ck ck+1 cn
Y (s) = U (s) + . . . + U (s) + U (s) + . . . + U (s)
(s − λ1 ) k s − λ1 s − λ2 s − λn
(3.3.34)
3.3. Representación de sistemas en el espacio de estados 99
y tomando como vectores de estado cada una de las fracciones que aparecen en la
ecuación 3.3.34 tendremos
c1 c1
X 1 (s) = U (s) = X 2 (s)
(s − λ1 )k s − λ1
c2 c1
X 2 (s) = U (s) = X 3 (s)
(s − λ1 )k−1 s − λ1
..
.
ck
X k (s) = U (s)
s − λ1
ck+1
X k+1 (s) = U (s)
s − λ2
..
.
cn
X n (s) = U (s) (3.3.35)
s − λn
d
x1 (t) = λ1 x1 (t) + x2 (t)
dt
d
x2 (t) = λ1 x2 (t) + x3 (t)
dt
..
.
d
xk (t) = λ1 xk (t) + u(t)
dt
d
xk+1 (t) = λ2 xk+1 (t) + u(t)
dt
..
.
d
xn (t) = λn xn (t) + u(t) (3.3.36)
dt
100 3. Modelado y análisis de sistemas en el espacio de estados
u(t) y(t)
2 s+3 1
s+1 s+2 s
x1 (t)
x2 (t)
x3 (t)
..
. bn
y(t) = [c1 c2 c3 . . . ck ck+1 . . . cn ]
+ u(t)
(3.3.38)
xk (t) an
xk+1 (t)
..
.
xn (t)
Ejemplo 3.3.1: Dado el sistema mostrado en la figura 3.8, obtengamos las for-
mas canónicas de Jordan, controlable y observable.
Solución:
N (q)
y(k) = u(k) (3.3.42)
M(q)
3.3. Representación de sistemas en el espacio de estados 103
z 2 + 0.4z + 3
F(z) =
z 3 + 1.9z 2 + 1.08z + 0.18
determinemos las formas canónicas controlable, observable y de Jordan.
Solución:
|z I − G 0 | = |z I − T −1 GT |
= |zT −1 T − T −1 GT |
= |T −1 (z I − G)T |
= |T −1 ||z I − G||T |
= |z I − G| (3.3.55)
Dicho de otra manera, la ecuación característica de la matriz y sus autovalores,
no dependen de la base elegida para representar el sistema en el espacio de estados.
Puesto que la matriz de transformación sólo requiere que esta sea no singular,
existen infinitas representaciones de estado para un sistema dado. Si se desea que
el sistema este representado en alguna forma canónica concreta, el problema que
se plantea es determinar la matriz de transformación que nos permita pasar de la
representación actual a la canónica que nos interese.
106 3. Modelado y análisis de sistemas en el espacio de estados
donde
M = [H G H . . . G n−1 H] (3.3.59)
y
a1 a2 . . . an−1 1
a2 a3 . . . 1 0
.. .
.. .. ..
W = . . . (3.3.60)
an−1 1 . . . 0 0
1 0 ... 0 0
donde
N = [C ∗ G ∗ C ∗ . . . (G ∗ )n−1 C ∗ ] (3.3.65)
3.3. Representación de sistemas en el espacio de estados 107
y
an−1 an−2 . . . a1 1
an−2 an−3 ... 1 0
..
W = ... ..
.
..
. . (3.3.66)
a1 1 ... 0 0
1 0 ... 0 0
siendo los elementos ai de la matriz W los coeficientes de la ecuación característica
del sistema indicados en la ecuación 3.3.61
Solución:
La ecuación característica de este sistema sistema viene dada por
|z I − G| = z 2 + 2z + 1 = 0
y
a 1 2 1
W = 1 =
1 0 1 0
con lo que la matriz de transformación será
108 3. Modelado y análisis de sistemas en el espacio de estados
−1
2 1 1 2 −2 3
T = (W N ∗ )−1 = =
1 0 −1 −1 1 −1
1 3
T −1 =
1 −1
0 −1 0 3
x 0 (k + 1) = G 0 x 0 (k) + H 0 u(k) = x (k) + u(k)
1 −2 2
y(k) = C 0 x 0 (k) = [0 1]x 0 (k)
T = MW = 0 1 2 1 1 0
=
1 −1 1 0 1 1
3.3. Representación de sistemas en el espacio de estados 109
1 0
T −1 =
−1 1
1 0 −1 1 1 0 0 1
G 0 = T −1 GT = =
−1 1 0 −1 1 1 −1 −2
1 0 0 0
H 0 = T −1 H = =
−1 1 1 1
h i 1 0 h i
C0 = C T = 1 2 = 3 2
1 1
Gv1 = λ1 v1
Gv2 = λ2 v2
.. .
. = ..
Gvn = λn vn (3.3.68)
GT = T 3 (3.3.71)
donde 3 = G 0 es la matriz diagonal que se desea obtener como resultado de la
transformación.
Ejemplo 3.3.4: Sea un sistema un cuya representación de estado es
x1 (k + 1) 1 0 0 x1 (k) 1
x2 (k + 1) = 1 −1 0 x2 (k) + 0 u(k)
x3 (k + 1) 0 1 2 x3 (k) 1
h i x1 (k)
y(k) = 1 2 1 x2 (k)
x3 (k)
obtengamos las matrices de transformación T que nos permiten convertir esta re-
presentación en la forma canónica de Jordan.
Solución:
La ecuación característica de este sistema sistema viene dada por
|λI − G| = (λ − 1)(λ + 1)(λ − 2) = 0
y por tanto los autovalores son λ1 = 1, λ2 = −1, λ3 = 2. La matriz de transforma-
ción para pasar a la forma canónica diagonal (puesto que las raíces son simples) se
obtiene a partir de los vectores propios obtenidos a partir de la siguiente expresión
Gvi = vi λi
1 0 0 vi1 vi1
1 −1 0 vi2 = vi2 λi (3.3.72)
0 1 2 vi3 vi3
3.3. Representación de sistemas en el espacio de estados 111
y donde T = [v1 v2 v3 ].
Sustituyendo en 3.3.72 los λi por su valor obtenemos los siguientes sistemas
de ecuaciones. Para λ1 = 1, el sistema de ecuaciones 3.3.72 queda de la siguiente
forma
v11 = v11
v11 − v12 = v12
v12 + 2v13 = v13
cuya solución nos indica que v11 se puede elegir arbitrariamente, y que v12 = 12 v11
y que v13 = −v12 . Tomando v11 = 2 nos queda que v12 = 1 y v13 = −1 con lo que
el vector propio v1 será
2
v1 = 1 (3.3.73)
−1
Para λ2 = −1, el sistema de ecuaciones 3.3.72 queda de la siguiente forma
v21 = −v21
v21 − v22 = −v22
v22 + 2v23 = −v23
cuya solución nos indica que v22 se puede elegir arbitrariamente, y que v23 = −1 v
3 22
y que v21 = 0. Tomando v22 = 3 nos queda que v23 = −1, con lo que el vector
propio v2 será
0
v2 = 3 (3.3.74)
−1
Para λ3 = 2, el sistema de ecuaciones 3.3.72 queda de la siguiente forma
v31 = 2v31
v31 − v32 = 2v32
v32 + 2v33 = 2v33
cuya solución nos indica que v33 se puede elegir arbitrariamente, y que v31 = 0 y
que v32 = 0. Tomando v33 = 1 nos queda que el vector propio v3 será
0
v3 = 0 (3.3.75)
1
112 3. Modelado y análisis de sistemas en el espacio de estados
1
2 0 0 1 0 0 2 0 0 1 0 0
0 −1 −1
G = T GT = 1
0 3 0 =
6 3 1 −1 0 1 0 −1 0
1 1
3 3
1 0 1 2 −1 −1 1 0 0 2
1
2 0 0 1 12
0 1
H = T −1 H = −1 1
0 =
6 3 0 − 6
1 1 4
3 3
1 1 3
2 0 0
0
C = C T = [1 2 1] 1 3 0 = [3 5 1] (3.3.78)
−1 −1 1
A2 t 2 A3 t 3
e At = I + At + + + ... (3.4.4)
2! 3!
Si definimos una nueva matriz 8 de la siguiente manera
8(t) = e At (3.4.5)
d
8(t − t0 ) C1 (t) = Bu(t) (3.4.9)
dt
d
En la expresión 3.4.9, despejando el término en C (t)
dt 1
e integrándolo entre t0
y t obtenemos que
Z t
C1 (t) = 8−1 (τ − t0 )Bu(τ )dτ + C2 (3.4.10)
t0
Dado que
x(t) = L−1 [(s I − A)−1 ]x(0) + L−1 [(s I − A)−1 BU(s)] (3.4.20)
x(t) = L−1 [(s I − A)−1 ]x(0) + L−1 [(s I − A)−1 BU(s)] (3.4.24)
en la que el primer término se anula puesto que el sistema tiene condiciones inicia-
les nulas. La solución queda entonces reducida a la siguiente expresión
Método Directo. En este método buscamos obtener de forma directa las ex-
presiones de G y H a partir de las matrices A y B de la representación de
estado en tiempo continuo.
y en t0 + (k + 1)T
Z t0 +(k+1)T
x(t0 + (k + 1)T ) = e A(k+1)T
x(t0 ) + e A(t0 +(k+1)T −τ ) Bu(τ )dτ (3.4.34)
t0
G(T ) = e AT (3.4.41)
Z T
H(T ) = ( e Aλ dλ)B (3.4.42)
0
3.4. Solución de la ecuación de estado 119
Z T
H(T ) = ( e Aλ dλ)B
0
= A−1 [e AT − e A0 ]B
= A−1 [e AT − I]B (3.4.43)
A partir de la matriz fundamental se obtienen las matrices G(T ) y H(T ) del siste-
ma en la representación de estado de tiempo discreto con periodo T , resultando
−2T −2T −3T
e e −e
G(T ) = e AT =
−3T
0 e
120 3. Modelado y análisis de sistemas en el espacio de estados
Z T Z T −2λ −2λ −3λ
e e − e 1
H(T ) = ( e Aλ dλ)B = dλ
0 0 0 e−3λ 2
−3 −2T
2e + 32 e−3T + 32 − 2
3
=
−2 −3T
3
e + 23
X
k−1
x(k) = G k x(0) + G k− j−1 H u( j) (3.4.46)
j=0
X
k−1
y(k) = C G k x(0) + C G k− j−1 H u( j) + Du(k) (3.4.47)
j=0
Es posible utilizar las ecuaciones 3.4.46 y 3.4.47 para conocer el valor de las
variables de estado y de salida en cualquier instante de tiempo k, pero tiene el
inconveniente de no darnos una expresión fácil de calcular de la solución, lo que
resulta engorroso, ya que habría que estar calculando los productos de matrices
3.4. Solución de la ecuación de estado 121
correspondientes hasta dicho instante de tiempo y operar con ellos hasta obtener el
resultado.
Resulta mucho más útil el disponer de una expresión general del estado y de
la salida de forma que los valores del estado y de salida puedan obtenerse de una
forma más simple.
y que
X
k−1
G k− j−1 H u( j) = Z −1 [(z I − G)−1 HU(z)] (3.4.54)
j=0
para k = 1, 2, 3, . . . .
G K = Z −1 [(z I − G)−1 z]
Obtengamos en primer lugar [z I − G] y su inversa,
h i z − 0.8 0 h i−1 1
0
zI − G = ; zI − G = z−0.8
1
0 z − 0.5 0 z−0.5
X
k−1
G k− j−1 H u( j) = Z −1 [(z I − G)−1 HU(z)]
j=0
1
0 1 z
= Z −1 z−0.8
0 1
z−0.5
2 z−1
z
0
= Z −1 (z−0.8)(z−1)
2z
0 (z−0.5)(z−1)
−4 · 0.8 + 5
k
0
=
0 −2 · 0.5 + 4
k
Si se quiere conseguir que la respuesta del sistema sea la que deseamos a pesar
de las influencias que las diferentes perturbaciones tienen sobre el sistema, resulta
necesario comprender lo que son, así como describirlas y modelarlas adecuada-
mente.
Habíamos descrito la relación entre la entrada y la salida de un sistema por
medio de la función de transferencia
La señal de control u.
124 3. Modelado y análisis de sistemas en el espacio de estados
Perturbaciones
en el sistema
w(t)
N Perturbaciones
en la salida
n(t)
.
u(t) + x(t) x(t) + + y(t)
B x C
+
A
Sistema
Dw
.
v (t) + x (t) x (t) +
v (t) F(s) w
x
w w +
w B C
w + w
Ruido blanco
w(t)
Aw
N Modelo de
las perturbaciones
. w(t)
u(t) + x(t) x(t) y(t)
B x C
+
A
Sistema
Si combinamos las expresiones 3.5.3 y 3.5.6 en una única ecuación de estado nos
queda
ẋ = Ax + Bu + Nw = Ax + Bu + N Cω xω + N Dvω
... ... (3.5.7)
ẋω = Aω xω + Bω vω
126 3. Modelado y análisis de sistemas en el espacio de estados
donde
A N Cω B N Dω x
Aa = , Ba = , Na = , xa = (3.5.10)
0 Aω 0 Bω xω
¯
Dn
.
v2(t) + x (t) x (t) +
n
x
n +
B Cn
n +
Ruido blanco
v (t)
2
An
Modelo de
las perturbaciones Fn(s)
n(t)
n(t)
.
u(t) + x(t) x(t) + y(t)
+
B x C
+
A
Sistema
En este segundo caso (figura 3.5.2) podemos formular un modelo de estado del
ruido de medida a partir de la función de transferencia entre esta y un ruido blanco
v2 ,
ẋn (t) = An xn (t) + Bn v2 (t) (3.5.13)
n(t) = Cn xn (t) + Dn v2 (t) (3.5.14)
si combinamos las expresiones 3.5.11 y 3.5.14 en una única ecuación de estado nos
queda
A 0 xa Ba Na 0 vw
ẋa = a + u+ (3.5.15)
0 An xn 0 0 Bn v2
h i x
y(t) = C Cn + Du + v2 (3.5.16)
xn
y si compactamos esta expresión tendremos
ẋ(t) = Ax(t) + Bu(t) + Nv1 (3.5.17)
y(t) = C x(t) + Du(t) + v2 (t) (3.5.18)
donde v1 y v2 son ruidos blancos, y podemos considerarla como la representación
estándar de sistemas con ruido de sistema y ruido de medida.
Solución:
Supongamos en una primera aproximación que el nivel de ventas se conside-
ra simplemente como una variable de entrada al sistema. El nivel del inventario
correspondería a la siguiente ecuación
1 1 0 −1
x(k + 1) = x(k) + u(k)
0 0 1 0
h i
y(t) = 1 0 x(k) (3.5.21)
Supongamos ahora que queremos refinar más el modelo, para ello podemos
considerar las ventas del almacén, como una señal de perturbación, puesto que no
tenemos ninguna capacidad de control sobre ellas. Si suponemos que u 2 (k) = v(k)
y que u 1 (k) = u(k) el modelo quedará de la siguiente forma
x(k + 1) =
1 1 x(k) + u(k) + −1 v(k)
0
0 0 1 0
h i
y(t) = 1 0 x(k) (3.5.22)
Ejemplo 3.6.1: Considérese el sistema de la figura 3.12 formado por dos masas
M = 10K g y m = 1K g unidas por un muelle de coeficiente de elasticidad K =
1N /m y de coeficiente de rozamiento viscoso f = 1N s/m. La entrada al sistema
es la fuerza u con la que se desea controlar la posición y. La posición de la primera
masa es y, de la segunda masa es d. Obtener el modelo en variables de estado del
sistema.
y d
f
u
M m
K
Solución:
130 3. Modelado y análisis de sistemas en el espacio de estados
M ÿ + f ( ẏ − ḋ) + K (y − d) = u (3.6.1)
x1 = y; x2 = ẏ, x3 = d, x4 = ḋ
De esta forma, las ecuaciones de equilibrio de fuerzas, en variables de estado
quedan como
M ẋ2 + f (x2 − x4 ) + K (x1 − x3 ) = u
m ẋ4 + f (x4 − x2 ) + K (x3 − x1 ) = 0
Las ecuaciones de estado de este sistema quedan de la siguiente forma
ẋ1 = x2
1 u
ẋ2 = − ( f x2 − f x4 + K x1 − K x3 ) +
M M
ẋ3 = x4
1
ẋ4 = − ( f x4 − f x2 + K x3 − K x1 )
m
y la ecuación de salida es
y = x1
qe
T A2
A1
h1 D1 h2 D2
R1 R1
T T
q1 q
2
q1 − q2 = A2 ḣ 2
Eligiendo las variables de estado x= h 1 , x2 = h 2 , y siendo la entrada y la salida
u = qe e y = q1 y operando, las ecuaciones de estado del sistema son
1 1 1
ẋ1 = − x1 + x2 + u
R1 A 1 R1 A 1 A1
1 R1 + R2
ẋ2 = x1 − x2
R1 A 1 R1 R2 A 2
y la ecuación de salida es
1 1
y= x1 − x2
R1 R1
Ejemplo 3.6.3: Considérese el caso de zorros y conejos de Australia. Estudiar la
estabilidad de este ecosistema y obtener la matriz de transición de estados.
Solución:El número de conejos, x1 si se dejan solos, crecería indefinidamente,
hasta que el suministro de alimentos se agotara. De esta forma
ẋ1 = K x1
Sin embargo, con los zorros que hay en el continente, tenemos
ẋ1 = K x1 − ax2
donde x2 es el número de zorros. Dado que los zorros deben tener conejos para
subsistir, su evolución será
ẋ2 = −hx2 + bx1
Para estudiar la estabilidad, hay que estudiar el signo de los valores propios de la
matriz (s I − A)
s 0 K −a (s − K ) a
|s I − A| = − =
0 s b −h −b (s + h)
132 3. Modelado y análisis de sistemas en el espacio de estados
= (s − K )(s + h) + ab = s 2 + s(h − K ) + ab − K h
Para que valores propios sean negativos es necesario que los coeficientes de la
ecuación de segundo orden sean positivos. Esto implica que h > K y ab > K h.
Suponiendo que los coeficientes sean K = 1, h = 3 y a = b = 2 la matriz de
transición de estados 8 queda
−t −t
(2t + 1)e −2te
8(t) = L−1 [(s I − A)−1 ] =
−t −t
2te (−2t + 1)e
BIBLIOGRAFíA
[5] V. Strejc, State Space Theory of Discrete Linear Control, John Wiley and
Sons, 1981.
134 Bibliografía
4. MODELADO Y ANÁLISIS DE SISTEMAS
NO-LINEALES
Hasta el momento, todos los sistemas analizados eran lineales, es decir, la re-
lación entre las variables era lineal. No obstante, en la naturaleza existen pocos
sistemas lineales. Existe un gran número de sistemas que son no-lineales y que
requieren unas técnicas diferentes de las vistas hasta ahora. En este capítulo se es-
tudiarán las técnicas de modelado de estos sistemas, que básicamente se reducen
a dos: función descriptiva y plano de fase. Las no-linealidades, aunque pueden ser
suaves o pronunciadas, se pueden dividir en dos grandes tipos, en función de su
naturaleza:
x2
∂ x2 x2=f(x1)
∂ x1
x20
error
x10 x1
S S S S
E E E E
a) b) c) d)
Las no-linealidades de este tipo pueden aparecer junto con sistemas lineales,
como se puede ver en la figura 4.4.
4.2. Efectos de las no-linealidades 137
S S S
M M
M
-A
-A A E E A E
-M
-M -M
a) b) c)
Fig. 4.4: Sistema con bucle de realimentación que consta de una parte lineal y otra
no-lineal
Los efectos que introducen las no-linealidades respecto a los sistemas lineales
son muchos y muy diferentes. Por tanto, el estudio de estos efectos es de suma
importancia a la hora de analizar el comportamiento de los sistemas no-lineales.
Entre estos efectos debidos a la presencia de no-linealidades en el sistema tenemos:
Resonancias de salto.
Consideremos el sistema de la figura 4.5 con la fuerza f (t) = 0. Este es un
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxx
xxxxxxxx
k xxxxxxxx
xxxxxxxx b
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
m
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
y
f(t)
Y Y
ω ω
a) b)
1 4
0.8 3
0.6
2
0.4
1
0.2
0 0
−0.2 −1
−0.4
−2
−0.6
−3
−0.8
−1 −4
0 2 4 6 8 10 0 2 4 6 8 10
a) b)
3
3
2
2
1
1
0 0
−1 −1
−2 −2
−3 −3
0 5 10 15 20 −3 −2 −1 0 1 2 3
a) b)
Hipótesis
∞
A0 X
F(X sen(ωt)) = + [An cos(nωt) + Bn sen(nωt)]
2 n=1
∞
(4.3.1)
A0 X
= + [Yn sen(nωt + φn )]
2 n=1
2M 2M
M M
0 0
−M −M
−2M −2M
−1 0 1 0 1 2 3 4 5 6 7 8 9 10
0
−1
−2
−3
−4
−5
−6
−7
−8
−9
−10
−1 0 1
10
6
N(X)
5
m=4/pi
0
0 1 2 3 4 5 6 7
M/X
K K
Ks Ks
0 0
−Ks −Ks
−K K
−1 0 1 0 2 4 6 8 10
0
−1
−2
−3
−4
−5
−6
−7
−8
−9
−10
−1 0 1
" r #
2K X s s 2
B1 = γ+ 1−
π X X
La función descriptiva es
" r #
Y1 2k s s s 2
N= φ1 = arc sen + 1− (4.3.5)
X π X X X
1.2
0.8
N/k
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1 1.2
s/X
Ejemplo 4.3.3: Hallar la función descriptiva de una zona muerta (figura 4.13).
Solución:
En la figura 4.13 está representada la respuesta de esta no-linealidad ante una en-
trada sinusoidal, se puede observar que para valores de entrada entre −A y A la
salida es cero, y que para valores de señal por encima de +A o inferiores a −A la
salida es |(E − A)K |, de aquí que el primer armónico de la señal de salida será:
y1 (t) = B1 sen(ωt)
Z
1 2π
B1 = y(t) sen(ωt) d(ωt)
π 0
Z π
4 4
= y(t) sen(ωt) d(ωt)
π 0
0, 0 ≤ ωt ≤ γ
y1 (t) = π
k[X sen(ωt) − A], γ ≤ ωt ≤
2
Z π
4 2
B1 = k[X sen(ωt) − A] sen(ωt) d(ωt)
π γ
"Z π Z π #
4k 2
2
2
= X sen (ωt) dωt − A sen(ωt) dωt
π γ γ
146 4. Modelado y análisis de sistemas no-lineales
−1 0 1 0 2 4 6 8 10
0
−1
−2
−3
−4
−5
−6
−7
−8
−9
−10
−X 0 X
Como A = X sen(γ ), se tiene γ = arc sen XA Por tanto,
"Z π Z π #
4X k 2
2
2
B1 = sen (ωt) dωt − sen γ sen(ωt) dωt
π γ γ
s
2
2X k π A A A
= − arc sen − 1−
π 2 X X X
0.9
0.8
0.7
0.6
N/k
0.5
0.4
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
A/X
y1 = A1 cos ωt + B1 sen ωt
−1 0 1 0 2 4 6 8 10
0
−1
−2
−3
−4
−5
−6
−7
−8
−9
−10
−X 0 X
Z 2π Z γ
1 1
A1 = y(t) cos(ωt) dωt = −k(A − b) cos(ωt) dωt
π 0 π 0
Z π Z π −γ
2
+ k(A sen(ωt) cos(ωt) dωt + k(A − b) cos(ωt) dωt
γ π/2
Z 3π Z #
2 2π −γ
+ k(A sen(ωt) + b) cos(ωt) dωt + −k(A − b) cos(ωt) dωt
3π
π −γ 2
4kb b
= −1 .
π A
4.3. Función descriptiva 149
Z 2π Z γ
1 1
B1 = y(t) sen(ωt) dωt = −k(A − b) sen(ωt) dωt
π 0 π 0
Z π Z π −γ
2
+ k(A sen(ωt) sen(ωt) dωt + k(A − b) sen(ωt) dωt
γ π/2
Z 3π Z #
2 2π −γ
+ k(A sen(ωt) + b) sen(ωt) dωt + −k(A − b) sen(ωt) dωt
3π
π −γ 2
s
2
Ak π 2b 2b 2b
= − arc sen −1 − −1 1− − 1 .
π 2 A A A
La función descriptiva es
q
Y1 1 A1
N (A) = φ1 = A21 + B12 arctan (4.3.7)
X A B1
-X 0 X 0 2 4 6 8 10
0
-1
-2
-3
-4
-5
-6
-7
-8
-9
-10
-X 0 X
Solución:
Consideramos en qué punto se verifica que x(t) = A :
r
A h2 1p 2
X sen(ωt1 ) = A ⇒ sen(ωt1 ) = ⇒ cos(ωt1 ) = 1 − 2 = X − h2
X X X
Aplicamos las fórmulas utilizadas anteriormente para n=1,
Z Z ωt1 Z π+ωt1
1 2π 1
A1 = y(t) cos(ωt)dωt = −m cos(ωt)dωt + m cos(ωt)dωt
π 0 π 0 ωt1
Z 2π
m
+ −m cos(ωt)dωt = − sen(ωt)|ωt π +ωt1
0 + sen(ωt)|ωt1
1
− sen(ωt)|2π
π +ωt1
π +ωt1 π
m h h h h 4mh
= − + − − − =−
π X X X X πX
Z Z ωt1 Z π +ωt1
1 2π 1
B1 = y(t) sen(ωt)dωt = −m sen(ωt)dωt + m sen(ωt)dωt
π 0 π 0 ωt1
Z 2π
m
+ −m sen(ωt)dωt = − cos(ωt)|ωt π +ωt1
0 + cos(ωt)|ωt1
1
− cos(ωt)|2π
π +ωt1
π +ωt1 π
m hp 2 p p p i
= X − h2 − X 2 + X 2 − h2 + X 2 − h2 + X 2 + X 2 − h2
πX
4mh p 2
=− X − h2
πX
El módulo y la fase del primer armónico son:
s
q
4mh 2 4m 2 2 4m p 2 4m
Y1 = A1 + B1 =
2 2
+ (X − h 2 ) = h + X 2 − h2 =
πX πX πX π
−h 1
φ1 = arctan √ = − arctan q
X 2 − h2 X2
−1
h2
Como
sen ωt1 h
φ1 = arctan = −ωt1 = arc sen
cos ωt1 X
se tiene que la función descriptiva es
Y1 4m h
N= φ1 = − arc sen (4.3.8)
X πX X
1.4 0
1.2 −0.2
−0.4
1
−0.6
0.8
arg(hN/m)
|hN/m|
−0.8
0.6
−1
0.4
−1.2
0.2
−1.4
0 −1.6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
h/X h/X
por la salida del sistema se atenúan suficientemente, de modo que sólo es signifi-
cativo el primer armónico, la función descriptiva se puede tratar como si fuera una
ganancia compleja.
La respuesta frecuencial del sistema en bucle cerrado se puede aproximar por
Y ( jω) N G( jω)
M( jω) = = (4.4.1)
R( jω) 1 + N G( jω)
Trazar el lugar G( jω). Se supone que todos sus polos y ceros están en el
semiplano izquierdo del plano s.
Criterio de Estabilidad
Recordando el criterio de Nyquist, en el que para un sistema con ecuación carac-
terística 1 + G( jω) = 0 era inestable si rodeaba al punto (−1, 0). En nuestro caso
de sistemas no-lineales, el punto (-1,0) se sustituye por (-1/N,0). De esta forma
tendremos que:
Si el lugar −1/N está rodeado por el lugar G( jω), entonces el sistema es
inestable.
1.5
1
4
0.1 2
0.5
0 0
0 −0.1 −2
x
x
−4
−0.5 −0.2
−6
−0.3
−1 −8
−2 0 2 4 −2 0 2 4
t t
−1.5
−2
−2 −1 0 1 2
x
1.5
1 1 2
0.5
1
0
x
x
0
−0.5
−1
−1 −1
0 5 t
10 15 0 5 10 15
t
−1.5
−2
−2 −1 0 1 2
x
0 4
salida 0
(s+1)2
1.2
0 4
(s+1)2
Solución:
A partir de la función descriptiva, vamos a estudiar las condiciones bajo las cuales
se genera el ciclo límite y sus características. El primer paso es descomponer el
sistema en su parte lineal y su parte no lineal. A continuación se sustituye el bloque
no lineal por su función descriptiva, que es la linealización de dicho bloque.
Denominando a la función descriptiva de la parte no lineal N (A, ω) y a la
parte lineal como G( jω), la ecuación característica del sistema linealizado en bucle
cerrado es 1 + N (A, ω)G( jω) = 0.
Si se representan las funciones −1/N (A, ω) y G( jω), los puntos de corte re-
presentan las soluciones de
1
G( jω) = − ,
N (Ai , ω)
ω=inf
G(jω)
Criterio de Nyquist para sistemas de fase mínima Los sistemas que tie-
nen una función de transferencia sin polos ni ceros en el semiplano derecho del
plano s o sobre el eje jω incluyendo el origen, son de fase mínima. La mayoría de
las funciones de transferencia encontradas en el mundo real son de fase mínima.
Por tanto, es lógico estudiar la aplicación del criterio de Nyquist a este tipo de sis-
temas. El criterio de Nyquist establece que N = Z − P, donde N es el número de
r(t) y(t)
G(s)
+ -
H(s)
vueltas alrededor del punto (−1, 0) realizados por la traza de G(s)H (s), Z es el
número de ceros de G(s)H (s), y P es el número de polos de G(s)H (s).
Como la función de transferencia G(s)H (s) no tiene polos ni ceros en el se-
miplano derecho del plano s ni en el eje jω, P = 0 y Z=0, el criterio de Nyquist
queda reducido a N = 0. Por tanto
jω
ω=inf
G(jω)
Teniendo en cuenta ahora que si la curva del sistema está a la derecha o izquier-
da del punto −1/N , la estabilidad del sistema varía, veamos la estabilidad de estos
ciclos límites.
156 4. Modelado y análisis de sistemas no-lineales
En la figura 4.24 se representan los lugares −1/N (A, ω) y G( jω), que se cor-
tan en los puntos P1 y P2 .
Im
G(jω)
O Re
∞ A P5
P2
P6
-1/N(A,ω)
0 A P3
P1
P4
Solución:
158 4. Modelado y análisis de sistemas no-lineales
10 ( jω)( jω − 1)( jω − 2)
G( jω) = ·
jω( jω + 1)( jω + 2) ( jω)( jω − 1)( jω − 2)
10 j (−ω2 − 20)
=
−ω(−ω2 − 1)(−ω2 − 4)
−(−10 jω2 + 20 j + 30ω)
=
ω(ω2 − 1)(ω2 + 4)
−30ω 10ω2 − 20
= + j
ω(ω2 + 1)(ω2 + 4) ω(ω2 + 1)(ω2 + 4)
El diagrama polar del sistema es el que se muestra en la figura 4.26:
La función descriptiva para una no-linealidad del tipo relé ya la habíamos ana-
lizado y era
4
N= 6 0o
πX
y, por tanto,
1 πX
− = 6 − 180o
N (X ) 4
que corresponde a la semirrecta real negativa como se muestra en la figura 4.26. Se
puede observar que existe un punto de intersección entre G( jω) y −1/N (X ), por
lo que existirá un ciclo límite.
Hay que hallar el punto de intersección de G( jω) con −1/N (X ). Para ello
igualaremos las partes real e imaginaria de ambas expresiones. Si igualamos la
parte imaginaria tendremos que la frecuencia del ciclo límite es:
√
Im(G( jω)) = 0 ⇒ 10ω2 − 20 = 0 ⇒ ω = 2
Im
G(jω) ω 0
∞ A
-1/N(A) A 0 O Re
∞ ω
1
1+Ts
4M
como primer armónico y1 (t) = π
sen(ωt) y la función descriptiva es
4M
N=
πX
Como M = 1, se tiene,
4
N=
πX
Para T = 4s, la función de transferencia de la parte lineal del sistema en bucle
abierto es
0.2
G(s) =
s(1 + 4s)(1 + 40s)
El ciclo límite se obtiene como
1
G( jω) = −
N
0.2 πX
=−
jω(1 + 4 jω)(1 + 40 jω) 4
Por tanto,
0.8 = −π X jω(1 + 4 jω)(1 + 40 jω)
= −π X ( jω − 4ω2 )(1 + 40 jω)
= −π X (−4ω2 − 40ω2 + j (ω − 160ω3 ))
= −π X (−44ω2 + j (ω − 160ω3 ))
Igualando la parte real e imaginaria
(
44π X ω2 = 0.8
ω − 160ω3 = 0
X = 0.018
π ω2
160ω3
Por tanto
1
ω2 = = 0.00625
160
ω = 0.079
X = 0.9
Para X < 0.9 el sistema es inestable, puesto que al recorrer el lugar de G( jω)
en el sentido de las frecuencias crecientes se encuentra el lugar de puntos críticos
a la derecha.
Para X > 0.9 el sistema es estable, puesto que al recorrer al lugar de G( jω) en
el sentido de las frecuencias crecientes se encuentra el lugar de puntos críticos a la
izquierda.
Esto significa que el ciclo límite es de tipo estable, puesto que para valores
X < 0.9, la magnitud tiende a aumentar y para X < 0.9, tiende a disminuir.
4.4. Análisis por función descriptiva 161
Im
G(jω) ω 0
∞ X
-1/N(X) X 0 O Re
Ciclo
límite
∞ ω
Ejemplo 4.4.4: Los reguladores neumáticos del tipo diafragma, a menudo pre-
sentan una no-linealidad denominada adherencia ("sticking") para valores de la
entrada próximos a cero. Dicha no-linealidad se puede ver en la figura.
-1
1 E
-1
Solución:
1 1
A sen(γ ) = 1; sen(γ ) = ; γ = arc sen
A A
2. Para calcular el primer armónico de u(t), hay que considerar
Z 2π
1 1
A1 = u(t) sen(ωt)d(ωt) = A 1 − (2γ − sen(2γ )
π 0 2π
Z 2π
1 sen2 (γ )
B1 = u(t) cos(ωt)d(ωt) = A
π 0 π
Para determinar con la ayuda de estos valores si existe ciclo límite supo-
nemos Ti = 1s. Para este valor el sistema en cadena abierta (excluida la
no-linealidad) será
1 1 K
G(s)R(s) = K 1 + =
s (1 + s )2 s(1 + s)
164 4. Modelado y análisis de sistemas no-lineales
Para determinar la posible existencia de ciclos límite, debemos representar las fun-
ciones G(s)R(s) y − N1 . Los puntos de corte corresponderán a los ciclos límite.
Si N = ρα , entonces
1 1 1
− =− =
N ρα ρ 180o −α
Por tanto,
1
Si A = 1 ⇒ − = 1.68147.5o
N
1
Si A = 2 ⇒ − = 1.03170.1o
N
1
Si A = 10 ⇒ − = 1.003179.99o
N
Como se puede ver en la figura, para A ' 10 se produce un ciclo límite de tipo
inestable.
6
x2
0
x
1
−2
−4
−6
−6 −4 −2 0 2 4 6
Las trayectorias son de tipo espiral y tienden hacia un punto donde la energía
es mínima (figura 4.34), siendo el sistema asintóticamente estable.
6
x2
0
x1
−2
−4
−6
−6 −4 −2 0 2 4 6
Fig. 4.34: Plano de fase correspondiente a la ecuación 4.5.2 para 0 < ζ < 1
4.5. Análisis en el plano de fase 167
0
x1
−2
−4
−6
−6 −4 −2 0 2 4 6
x(t) = P ex p( Jt) P −1 x0
o cuando b 6= 0, la transformación
z 1 = (d − λ1 )x − by, z 2 = (d − λ2 )x − by,
Las trayectorias se van lejos del origen cuando t → ∞, tal como aparece en
la figura 4.36. A estas coordenadas se les denominan coordenadas modales
y las representaciones de la familia de curvas generadas por las ecuaciones
4.5.6 según c va recorriendo los números reales, forman el plano de fase
en coordenadas modales, como se puede ver en las figuras 4.35 a 4.40. Los
planos de fase en coordenadas normales se pueden considerar como trans-
formaciones no singulares de los planos de fase modales.
6 6
x2 x2
4 4
2 2
0 0
x1 x1
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
.
jω x
Punto de silla
σ x
2. Si los autovalores λ son reales y negativos los modos de respuesta son expo-
nenciales decrecientes. Las trayectorias en el plano de fases convergen hacia
el origen y el punto singular se denomina nodo estable (figura 4.37).
170 4. Modelado y análisis de sistemas no-lineales
6 6
x x2
2
4 4
2 2
0 0
x1 x1
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
jω .
x
Nodo Estable
σ x
3. Si los autovalores λ son complejos conjugados con parte real negativa, los
modos son sinusoides compuestas con términos exponenciales decrecientes
y las trayectorias en el plano de fases son espirales que se van aproximando
al origen. El punto singular se denomina foco estable (figura 4.38).
4.5. Análisis en el plano de fase 171
6 6
x x2
2
4 4
2 2
0 0
x1 x1
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
.
x
jω
Foco Estable
x
σ
jω
4. Si los autovalores son reales y positivos, los modos son exponenciales cre-
cientes y las trayectorias son como en la figura 4.39. El punto singular se
denomina nodo inestable.
6 6
x2 x2
4 4
2 2
0 0
x1 x1
−2 −2 jω
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
5. Si los autovalores son complejos conjugados con parte real positiva, los mo-
dos son sinusoides compuestas con términos exponenciales crecientes y las
trayectorias en el plano de fases son espirales que se van alejando del origen.
El punto singular se denomina foco inestable (figura 4.40).
172 4. Modelado y análisis de sistemas no-lineales
6 6
x x
2 2
4 4
2 2
0 0
x1 x1
jω
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
6. Si los autovalores son imaginarios puros, los modos son sinusoides y las
trayectorias en el plano de fases son circunferencias con centro en el origen.
El punto singular se denomina centro (figura 4.42).
6 6
x2 x2
4 4
2 2
0 0
x x
1 1
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
.
jω x
Centro
σ x
6 6
x2 x2
4 4
2 2
0 0
x1 x1
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
q
q=0
p 2-4
centro
foco foco
inestable estable
nodo nodo
inestable estable
p
punto
de silla
jω .
x
Nodo Estable
σ x
.
jω x
Nodo Inestable
σ x
.
jω x
Punto de silla
σ x
.
x
jω
Foco Estable
x
σ
jω .
x
Foco Inestable
σ x
.
jω x
Centro
σ x
d x2 ẋ2 x1 − 2x2
α= = =
d x1 ẋ1 −x1
Despejando, se obtiene
x2 α+1
α = −1 + 2 ⇒ x2 = x1
x1 2
donde se ve que el lugar geométrico de los puntos con pendiente α es una recta de
pendiente p = α+1
2
.
Conviene representar las rectas de pendiente p y en ella los pequeños trazos de
pendiente α:
α+1
p= ⇒ α = 2 p − 1.
2
Con estas fórmulas se puede hacer una tabla que relacione isoclinas y pendientes:
176 4. Modelado y análisis de sistemas no-lineales
3. Cerca del origen las trayectorias son tangentes a alguno de los autovectores.
ẋ1 = x2
ẋ2 = f (x1 , x2 )
A
r(t) + e(t) m(t) K y(t)
eo e1 s(Ts+1)
-
-A
de la respuesta ante una entrada escalón. Se supone que las constantes del sistema
son T=1, K=4, eo = 0.1, e1 = 0.2 y A = 0.2.
Solución:
Las regiones del sistema 2 , en función del valor de ė, son:
Para ė > 0, es decir, para valores de e crecientes, nos movemos hacia la derecha
en la gráfica y tenemos que
m = 0.2 para
e > 0.2
m = 0 para −0.1 < e < 0.2
m = −0.2 para e < −0.1
2 Tanto en este ejemplo como el siguiente las variables de estado son e y ė, que corresponden a
las variables x1 y x2 usadas en la definición del método de las isoclinas.
178 4. Modelado y análisis de sistemas no-lineales
Para ė < 0,
ë = −ė − 0.8 para
e > 0.1
ë = −ė para −0.2 < e < 0.1
ë = −ė + 0.8 para e < −0.2
ë = −ė
Como
d ė
ë = ė
de
es decir,
d 2e de d ė
2
=
dt dt de
la primera ecuación se puede reescribir como
d ė
ė + ė = 0
de
ė d ė + ė de = 0
ė(d ė + de) = 0.
4.6. El Método de las isoclinas 179
.
e
d ė + de = 0 ⇒ ė + e = cte.
ë = −ė − 0.8.
Poniendo
d ė d ė de d ė
ë = = = ė
dt de dt de
se tiene
d ė
ė = −ė − 0.8.
de
Las ecuaciones de las isoclinas son las curvas que verifican
ė
=q
de
donde q es una constante que representa la pendiente de las trayectorias en el plano
e − ė. En nuestro caso
−ė − 0.8
=q
ė
180 4. Modelado y análisis de sistemas no-lineales
−0.8
−ė − 0.8 = q ė ⇒ (1 + q)ė = −0.8 ⇒ ė = .
1+q
Es decir, las isoclinas son las rectas horizontales
Uniendo los datos correspondientes a las tres zonas se obtiene el plano de plano
de fase, que además nos permite dibujar las trayectorias típicas, como se ve en la
figura 4.49.
e´
0.5
0.4
0.3
0.2
0.1
0
e
−0.1
−0.2
−0.3
−0.4
−0.5
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
1
r(t) + e(t) m(t) 1 y(t)
1+s
- s(1+s)
-1
Solución:
Cuando r (t) = 0, el sistema funciona como regulador del nivel h. La ecuación
diferencial del sistema es
ÿ + ẏ = m
Como e = r − y = −y, resulta
ë + ė = −m
2
e´
1.5
0.5
0
e
−0.5
−1
−1.5
−2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Amplificador
Motor
r(t) k m(t) y(t)
+ e(t) -a 10
a s(s+b)
-
Solución:
Para el motor se tiene que
Y (s) 1
= ⇒ Y (s)(s 2 + bs)R(s)
R(s) s(s + b)
d 2 y(t) dy(t)
2
+b = r (t)
dt dt
184 4. Modelado y análisis de sistemas no-lineales
De la función no-lineal del amplificador se tiene que la salida u(t) del sistema
no-lineal tiene tres zonas lineales bien diferenciadas
y(t) > +a m(t) = ka
−a ≤y(t) ≤ +a m(t) = ky(t)
y(t) < −a m(t) = −ka
Por tanto, se tienen tres zonas en el plano de fases con las siguientes ecuaciones
(recuérdese que la realimentación es negativa).
Si y(t) > +a
d 2 y(t) dy(t)
+b = ka
dt 2 dt
Si −a ≤ y(t) ≤ +a
d 2 y(t) dy(t)
2
+b = −ky(t)
dt dt
Si y(t) < −a
d 2 y(t) dy(t)
+b = −ka
dt 2 dt
Para
0o α = 0, −bx2 − ka = 0, x2 = − ka ⇒ x2 = − 21 ,
b
90o α = 2, x2 = 0,
45o ka
α = 1, −bx2 − ka = x2 , x2 = − b+1 ⇒ x2 = − 13 ,
ka
−45o α = −1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = −1.
Zona 2: −a ≤ x ≤ +a
d x1 (t)
= x2 (t)
dt
d x2 (t) + bx (t) − kx (t)
2 1
dt
x2 (t)
= −bx2 (t) − kx1 (t)
dt
luego
d x2 −bx2 − kx1
= = α ⇒ x2 (−b − α) = kx1 .
d x1 x2
Particularizando para k = a = 1 y b = 2.
Para
0o , α = 0, −bx2 − kx1 = 0, x2 = − kxb1 ⇒ x2 = − 21 x1
−45o , kx1
α = −1, −bx2 − kx1 = −x2 , x2 = − b−1 ⇒ x2 = −x1
45o , kx1
α = 1, −bx2 − kx1 = 1x2 , x2 = − b+1 ⇒ x2 = − x31
o
90 α = −b(−2) − bx2 − kx1 = −bx2 , x1 = 0.
Zona 3: x ≤ −a
x1 (t)
= x2 (t)
dt
x2 (t) + bx (t) = ka
2
dt
x2 (t)
= −bx2 (t) + ka
dt
186 4. Modelado y análisis de sistemas no-lineales
luego
d x2 −bx2 − ka
= = α.
d x1 x2
Particularizando para k = a = 1 y b = 2.
Para
0o , α = 0, −bx2 − ka = 0, x2 = − ka ⇒ x2 = − 21
b
−45o , ka
α = −1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = ka
=1
b−a
45o , ka
α = 1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = 1
o
90 α = ∞, x2 = 0.
3a
x2
2a
0
x1
−1a
−2a
−3a
−3a −2a −a 0 a 2a 3a
T
r(t) + e(t) m(t) 10 y(t)
-a
a
s(sI+B)
- -T
Solución:
Como el sistema tiene realimentación unitaria, e = −y.
− T,
si e < −a
m = 0, si − a < e < a
T, si e > a
En términos de la salida y,
− T,
si y > a
m = 0, si − a < y < a .
T, si y < −a
Se pueden considerar las tres zonas en las que y tiene expresiones distintas,
Zona 1: y < −a
1
y= T
s(s I + B)
En el dominio del tiempo,
I ÿ + B ẏ − T = 0
dz
I ẏ + B ẏ − T = 0
dy
Usando las variables del espacio de fases,
d ẏ −B ẏ + T B T
= =− +
dy I ẏ I I ẏ
d ẏ
Cuando ẏ = 0 ⇒ dy
=∞
d ẏ T
Cuando = 0 ⇒ −B ẏ + T = 0 ⇒ ẏ =
dy B
, que es una asíntota horizontal.
Las isoclinas tienen por ecuación
−B ẏ + T
α= ; −B ẏ + T = α I ẏ
I ẏ
T
ẏ(α I + B) = T ; z=
αI + B
Es decir, son rectas horizontales.
188 4. Modelado y análisis de sistemas no-lineales
Zona 3: y > a
1
y= (−T )
s(s I + B)
En el dominio del tiempo,
I ÿ + B ẏ + T = 0
d ẏ
I ẏ + + B ẏ + T = 0
dy
Usando las variables del espacio de fases,
d ẏ −B ẏ − T
=
dy I ẏ
Cuando
d ẏ T
= 0 ⇒ ẏ = −
dy B
que es una asíntota horizontal.
Las isoclinas tienen como ecuación
−B ẏ − T
α= ; −B ẏ − T = α I ẏ
I ẏ
−T
ẏ(α I + B) = −T ; ẏ =
αI + B
Es decir las isoclinas son rectas horizontales.
4.6. El Método de las isoclinas 189
e´
Bibliografía
[5] JJ.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.
190 4. Modelado y análisis de sistemas no-lineales
5. ESTABILIDAD DE SISTEMAS DINÁMICOS
La primera propiedad que deben tener los sistemas de control es que sean es-
tables. Además, en éstos sistemas, al funcionar en bucle cerrado se corre el riesgo
de que sean inestables, sistemas que en bucle abierto eran estables.
El concepto más sencillo sobre estabilidad es la estabilidad de entrada-salida
que consiste en que a entradas acotadas le correspondan salidas acotadas, es decir
que la ganancia sea siempre finita.
Si consideramos el sistema de la figura 5.1, donde G(s) y H (s) son lineales o
no-lineales, el error e es e = r + H (s)y = r + H (s)G(s)e. La norma del error
H(s)
kuk kuk
kek = ≤
k1 − G(s)H (s)k 1 − kG(s)kkH (s)k
En el caso de que el sistema sea lineal se puede exigir una condición un poco
menos exigente, basta con que kG(s)H (s)k < 1.
192 5. Estabilidad de sistemas dinámicos
En los sistemas lineales, la estabilidad del sistema está determinada por la po-
sición de los polos en bucle cerrado. Consideremos un sistema de una entrada y
una salida que tiene como función de transferencia en bucle cerrado
Qm
i=1 (s + z i )
M(s) = K Qn Q p
j=1 (s + p j ) k=1 (s + 2ζk ωk s + ωk )
2 2
La respuesta impulsional es
X
k X
p
1
y(t) = A j e− p j t + Bk e−ζk t sin(ωk t)
j=1 k=1
ωk
Por tanto, para obtener una salida acotada ante una entrada acotada es necesario
que tanto los polos reales p j , como las partes reales de los polos complejos ζk sean
negativas.
La condición suficiente para que un sistema lineal SISO (Single Input-Single
Output)en tiempo continuo, sea estable es que todos sus polos estén situados en el
semiplano de la izquierda (parte real negativa).
El problema de este criterio es que es muy difícil de aplicar cuando hay pará-
metros. En este caso hay que aplicar otros criterios como el de Routh.
En el caso de un sistema lineal SISO en tiempo discreto, la condición suficiente
para que sea estable es que todos sus polos estén situados dentro del círculo de
radio unidad.
sn an an−2 an−4 . . .
s n−1 an−1 an−3 an−5 . . .
Las filas restantes se construyen como
sn an an−2 an−4 . . .
s n−1 an−1 an−3 an−5 . . .
s n−2 bn−1 bn−3 bn−5 . . .
s n−3 cn−1 cn−3 cn−5 . . . (5.1.2)
an an−2
an−1 an−3 1
bn−1 = − = (an−1 an−2 − an an−3 )
an−1 an−1
an an−4
an−1 an−5 1
bn−3 = − = (an−1 an−4 − an an−5 )
an−1 an−1
Análogamente, la cuarta fila es
an−1 an−3
bn−1 bn−3 1
cn−1 = − = (bn−1 an−3 − an−1 bn−3 )
bn−1 bn−1
an−1 an−5
bn−1 bn−5 1
cn−3 = − = (bn−1 an−5 − an−1 bn−5 )
bn−1 bn−1
y así sucesivamente hasta llegar a grado cero.
194 5. Estabilidad de sistemas dinámicos
Nota 5.1.1: Al desarrollar la tabla, podemos multiplicar o dividir una fila por una
constante positiva sin que se modifique el resultado (esto es útil para simplificar la
tabla).
Existe una fila de ceros. (Polos colocados simétricamente respecto del origen
del plano complejo). Se toman los coeficientes de la fila situada encima de la
fila de ceros. Con estos coeficientes se construye la ecuación auxiliar, cuyo
grado será el que indica la potencia de s respectiva. Se sustituye la fila de
ceros por los coeficientes de la derivada y se continúa con el método.
a0 s 3 + a1 s 2 + a2 s + a 4 = 0
con a0 , a1 , a2 y a3 positivos.
La tabla de Routh correspondiente es
s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s1 a1
s0 a3
Para que todos los coeficientes de la primera columna sean positivos se debe
verificar que
a1 a 2 − a 0 a 3
>0
a1
Por tanto, el sistema será estable cuando a1 a2 > a0 a3 .
p(s) = s 4 + 2s 3 + 4s 2 + 8s + 5
5.1. Métodos clásicos de análisis de estabilidad 195
La tabla de Routh es
s4 1 4 5
s3 2 8
s2 0 ≈ ε 5
8ε−10
s1 ε
s0 5
donde el valor cero de la primera columna se sustituye por el número pequeño y
positivo ε.
Cuando ε → 0, sign 8ε−10ε
= sign −10
ε
= −1. Como hay dos cambios de
signo en la primera columna, hay dos polos en el semiplano derecho y, por tanto,
el sistema es inestable.
Ejemplo 5.1.3: Caso con una fila de ceros. Consideremos un sistema con ecua-
ción característica
Solución:
Este sistema tiene sus raíces situadas de forma simétrica respecto al origen del
plano s:
±σ ± jω.
La tabla de Routh es
s4 1 11 18
s3 2 18
2
s 2 18
s1 0 → 4 0 → 0
s0 18
1
s+3
Como condición previa es necesario que todos los coeficientes sean del mismo
signo:
15 + K > 0 ⇒ K > −15
La tabla de Routh es
s3 1 11
s2 5 15 + K
40−k
s1 5
s 0 15 + K
Para que el sistema sea estable se necesita que todos los coeficientes de la primera
columna sean cero:
40 − K
> 0 ⇒ 40 − K > 0 ⇒ K < 40
5
Juntando las dos condiciones, se obtiene que el sistema es estable para
con an > 0.
La tabla de Jury es
donde
Para que el polinomio 5.1.3 tenga todas sus raíces dentro del círculo unidad es
condición necesaria y suficiente que:
p(1) > 0
n
(−1) p(−1) > 0
|a0 | < an
|b0 | > |bn−1 |
(5.1.4)
|c0 | > |cn−2 |
|d0 | > |dn−3 |
... ...
|v0 | > |v2 |
Ejemplo 5.1.5: Estudiar la estabilidad del sistema que tiene como polinomio ca-
racterístico
p(z) = z 3 − 3z 2 + 2.25z − 0.5.
198 5. Estabilidad de sistemas dinámicos
Solución:
La tabla de Jury es
z0 z1 z2 z3
−0.5 2.25 −3 1
1 −3 2.25 −0.5
−0.75 1.875 −0.75
donde
ρ
F(s)
F(ρ)
Es decir, si
Z = número de ceros de F(s) dentro de ρ
P = número de polos de F(s) dentro de ρ
N = número de vueltas de F(ρ) alrededor del origen.
Entonces N = Z − P.
Q
(s + z i )
G(s)H (s) = k Q
(s + pi )
Q Q Q
(s + z i ) (s + pi ) + k (s + z i )
F(s) = 1 + G(s)H (s) = 1 + k Q = Q
(s + pi ) (s + pi )
200 5. Estabilidad de sistemas dinámicos
r(t) y(t)
G(s)
+ -
H(s)
F(s) = 1+G(s)H(s)
ρ
F(ρ)
∞
Método modificado.
Una forma de simplificar los cálculos en variable compleja, manteniendo el
principio del argumento, es tomar la función
F(s) = G(s)H(s)
ρ
F(ρ)
∞
-1
1
s+3
Solución:
La función de transferencia en bucle abierto es
s+2
G(s)H (s) =
(s + 1)(s + 3)
II
I
x o x
-3 -2 -1
III
El tramo I tiene por imagen el diagrama polar. Tomando los límites para ω → 0
y ω → ∞ tenemos
jω + 2
G( jω)H ( jω) =
( jω + 1)( jω + 3)
2
lim |G( jω)| = 3
lim |G( jω)| = 0
ω→0 ω→∞
Z = N + P = 0.
0.3
0.2
0.1
−0.1
−0.2
−0.3
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6
Sistema de bucle abierto con polo en el origen. En este caso se deberá agre-
gar un nuevo tramo (IV) que evite este polo. El tramo IV está definido por
un semicírculo de radio infinitesimal y centro en el origen:
ε→0
s = εe jθ
θ ∈ −π2
, π2
I II
IV
III
I s = jω ω ∈ (0, a)
II s = a j + εe jθ ε → 0 θ ∈ ( −π
4
, π4 )
III s = jω ω ∈ (a, ∞)
IV s = Re jθ R → ∞ θ ∈ ( π4 , −π
4
)
V s = jω ω ∈ (−∞, −a)
VI s = −a j + εe jθ ε → 0 θ ∈ ( −π
4
, π4 )
VII s = jω ω ∈ (−a, 0)
204 5. Estabilidad de sistemas dinámicos
Im
III
II IV
Re
VII
VI
Fig. 5.11: Camino de Nyquist para un sistema con polos en el eje imaginario
Z=N
y, por tanto, para que el sistema sea estable debe cumplirse que
N =0
-1
-1
Estabilidad relativa
El método de Nyquist permite el estudio de la estabilidad relativa de un sistema
de bucle cerrado a partir de la respuesta en frecuencia del sistema de bucle abierto.
Esta estabilidad relativa vendrá dada por la cercanía del diagrama polar al punto
s = −1 (ver figura 5.14). En esta figura se muestran los diagramas polares de tres
sistemas. De la observación de los mismos se puede decir que el sistema a) será
más estable que los b) y c) puesto que su diagrama polar está más alejado de −1
que los de los otros dos sistemas (suponiendo que los tres sean de fase mínima).
Para tener una idea más cuantitativa y precisa de esta estabilidad relativa, se
utilizan los conceptos de margen de ganancia y de fase que veremos a continuación.
206 5. Estabilidad de sistemas dinámicos
Im(G(jω)) Im(G(jω))
-1 Re(G(jω)) -1 Re(G(jω))
a) b)
Im(G(jω))
-1 Re(G(jω))
c)
Im(G(jω))
ω=ω ϕ
-1 A
Re(G(jω))
Para un sistema estable se verifica |G(ωϕ )H (ωϕ )| < 1. Por tanto, M G > 0. Este
valor indica cuánto se puede incrementar la ganancia sin provocar inestabilidad.
Para un sistema inestable se verifica |G(ωϕ )H (ωϕ )| > 1. Por tanto, M G < 0,
señalando cuánto hay que reducir la ganancia para que el sistema se haga estable.
Cuando el sistema es críticamente estable, |G(ωϕ )H (ωϕ )| = 1. Por tanto,
M G = 0, no pudiendo aumentarse la ganancia de bucle abierto sin provocar ines-
tabilidad.
Si la curva del diagrama polar no corta al eje real negativo, como ocurre en los
sistemas de primer y segundo orden, M G = ∞. Teóricamente puede incrementarse
la ganancia indefinidamente, sin provocar inestabilidad (figura 5.16).
208 5. Estabilidad de sistemas dinámicos
Im(G(jω)) jω y(t)
. ..
ω=∞
K1
A
x x x
-1 Re(G(jω)) K1 σ t
K1
estable
ω=0
Im(G(jω)) jω y(t)
ω=∞ K2 .
. x x x
-1 A Re(G(jω)) K
2
K2 . σ t
estable
ω=0
jω
.
Im(G(jω)) y(t)
K3
ω=∞
Re(G(jω)) K
. x x x
σ
A= -1 3
.
K3
t
marginalmente
ω=0
estable
Im(G(jω)) jω .
K4
y(t)
ω=∞
A -1 Re(G(jω)) K
.4
x x x
σ t
inestable
.
K4
ω=0
Fig. 5.16: Diagrama de Nyquist, lugar de las raíces y respuesta escalón en bucle
1
cerrado según aumenta la ganancia del sistema G(s) = s(s+a)(s+b) con
a, b > 0.
5.1. Métodos clásicos de análisis de estabilidad 209
Margen de fase γ . La figura 5.17 muestra los diagramas polares de dos sis-
temas cuyo margen de ganancia es el mismo. Sin embargo, el sistema a) es más
estable que el b). Para cuantificar esta circunstancia se recurre al margen de fase.
Im(G(jω)) Im(G(jω))
-1 A Re(G(jω)) -1 A Re(G(jω))
a) b)
Fig. 5.17: Los dos sistemas tienen el mismo margen de ganancia, pero el a) es más
estable que el b)
M F = γ = arg(G H (ωg )) + π
Gráficamente, γ queda reflejado en la figura 5.18.
En los sistemas estables en bucle abierto y de fase mínima, la condición de
estabilidad del sistema de bucle cerrado es que
M G|d B > 0
MF = γ > 0
Im(G(jω)) Im(G(jω))
γ(−) ωg
ω=∞ ω=∞
-1 A Re(G(jω)) A -1 Re(G(jω))
ϕ ϕ
γ(+)
ωg
ω=0
ω=0
|G|
ω ω
Arg(G)
γ ω
ωϕ
Para hallar el margen de fase hay que calcular el corte de la traza de |G( jω)H ( jω)|
con el círculo unidad y, a continuación, la frecuencia correspondiente a dicho punto
de corte.
G( jωg )H ( jωg ) = 1 = 0 d B
− arg(G( jωg )H ( jωg )) − γ = −180
γ = 180 − arg(G( jωg )H ( jωg ))
Los márgenes de fase y ganancia se miden sobre el sistema en bucle abierto.
El margen de ganancia/fase representa cuanto se puede aumentar la ganan-
cia/desfase del sistema en bucle abierto sin que el sistema en bucle cerrado se haga
inestable.
ẋ = f (x, t)
212 5. Estabilidad de sistemas dinámicos
-2
-4
-6
-6 -4 -2 0 2 4 6
x2
esfera de radio δ
esfera de radio ε
x(0)
x1
x2
esfera de radio δ
esfera de radio ε
x(0)
x1
x2
esfera de radio δ
esfera de radio ε
x(0)
x1
Para las formas cuadráticas, se puede aplicar el criterio de Sylvester, que dice
que la condición necesaria y suficiente para que la forma cuadrática
a11 a12 . . . a1n x1
a21 a22 . . . a2n x2
V (x) = [x1 , x2 , . . . , xn ]
. . . . . . . . . . . . . . .
an1 an2 . . . ann xn
(donde la matriz es real y simétrica), sea definida positiva es que sus menores
principales sean positivos:
a11 a12 . . . a1n
a11 a12 a21 a22 . . . a2n
a11 > 0, > . . . ,
0, > 0.
a21 a22 ... ... ... . . .
an1 an2 . . . ann
V (x) es definida negativa si
a11 a12 . . . a1n
a11 a12 a21 a22 . . . a2n
a11 < 0, > 0, ..., n
(−1)
> 0.
a21 a22 ... ... ... . . .
an1 an2 . . . ann
V (x) es semidefinida positiva si la matriz es singular y todos sus menores
principales son no negativos.
5.2. Método de Liapunov 215
V (x) = (x1 + x2 ) 2
es semidefinida positiva (con x1 = −x2 6= 0 → V (x) = 0).
V (x) = −x12 − (x1 + x2 )2 es definida negativa (∀x 6= 0, V (x) < 0, y V (0) = 0).
V (x) = x1 x2 + x22 es indefinida.
Definición 5.2.5 (Función de Liapunov): Una función V (x, t) se dice que es
una función de Liapunov en Sr (0) si sus derivadas parciales primeras son con-
tinuas, V (x, t) es definida positiva y V̇ (x, t) es semidefinida negativa en Sr (0)
(figura 5.24).
80
70
60
50
40
30
20
10
10
0 5
6
4 0
2
0 −5
−2
−4
−6 −10
d xT P x
V̇ (x) = = ẋ T P x + x T P ẋ =
dt
23 −7 x1 23 −7 ẋ1
= [ẋ1 ẋ2 ] + [x1 x2 ] =
−7 11 x2 −7 11 ẋ2
23 −7 ẋ1
= 2[x1 x2 ] = −60[x12 + x22 ] < 0
−7 11 ẋ2
Solución:
V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2 = 2x1 x2 + 2x2 (−x1 − ax2 ) = −2ax2 < 0, si x 6= 0
y
V̇ (x) = 0, si x = 0.
Por tanto, el sistema es estable en el origen (Fig.5.25).
Mas interés tiene este teorema cuando se aplica a sistemas no-lineales, como
se puede ver en el siguiente ejemplo.
218 5. Estabilidad de sistemas dinámicos
Solución:
Hallamos los puntos de equilibrio: ẋ = 0
( (
0 = x2 − x1 (x12 + x22 ) 0 = x22 − x1 x2 (x12 + x22 )
⇒
0 = −x1 − x2 (x12 + x22 ) 0 = +x12 + x1 x2 (x12 + x22 )
Solución:
Si se linealiza el sistema en el origen, se obtiene
∂ ẋ1
2 ∂ ẋ1
2
= 3x1 + x2 =0 = 1 + 2x1 x2 =1
∂ x1 (0,0) ∂ x2 (0,0)
∂ ẋ2 ∂ ẋ2
= −1 + 2x1 x2 = −1 = x1 + 3x2
2
=0
∂ x1 (0,0) ∂ x2 (0,0)
es decir
ẋ1 =
0 1 x1
ẋ2 −1 0 x2
y por tanto (
ẋ1 = x2
ẋ2 = −x1
Si tomamos como función de Liapunov
como su derivada es
V (x) = 2x1 ẋ1 + 2x2 ẋ2
= 2x1 (x2 + x1 (x12 + x22 )) + 2x2 (−x1 + x2 (x12 + x22 ))
= 2x1 x2 + 2x14 + 2x12 x22 − 2x1 x2 + 2x12 x22 + 2x24
= 2x14 + 4x12 x22 + 2x24
se obtiene que V (x) y V̇ (x) son definidas positivas y el anterior teorema nos mues-
tra que el sistema es inestable.
AT P + P A = − Q (5.2.2)
V̇ (x) = ẋ T P x + x T P ẋ = ( Ax)T P x + x T P Ax
= x T AT P x + x T P Ax = x T ( AT P + P A)x.
220 5. Estabilidad de sistemas dinámicos
AT P + P A = − Q
Solución:
Según el teorema anterior, el sistema ẋ = Ax es asintótica y globalmente
estable si y sólo si para todas las matrices Q hermíticas y definidas positivas, existe
una matriz P hermítica definida positiva tal que A0 P + P A = − Q.
Tomando
1 0
Q=
0 1
tenemos
a 0 p11 p12
+
p11 p12 a 0
= −
1 0
0 b p12 p22 p12 p22 0 b 0 1
se tiene
−1
p11 =
2a
p12 =0
−1
p22 =
2b
Por tanto,
−1
2a 0
P=
−1
0 2b
P tiene que ser definida positiva, por tanto, hay que determinar para qué valores
de a, b, y c, los menores principales son mayores que cero.
5.2. Método de Liapunov 221
1
El primer menor principal es − 2a . si imponemos que sea positivo se tiene,
1
− >0 ⇒a<0
2a
El segundo menor principal es el determinante de la matriz P
1
| P| =
4ab
Imponiendo la condición de que sea positivo,
1
>0
4ab
y teniendo en cuenta que a > 0 se deduce que b < 0. Es decir, que la condición
para que el sistema expresado por la ecuación 5.2.3 sea estable es que a y b sean
negativas.
ÿ + (2 + e−t ) ẏ + y = 0 (5.2.4)
Solución:
El sistema puede expresarse en variables de estado descomponiendo la parte lineal
y la no-lineal, como:
0 1 x1 0
ẋ = + = Ax + B
−1 −2 x2 −e−t x2
y = (1 0)x
Primero comprobamos la estabilidad de la parte lineal ẋ = Ax
Q=I
AT P + P A = − Q
0 −1 p11 p12 p11 p12 0 −1 −1 0
+ =
−1 −2 p12 p22 p12 p22 −1 −2 0 −1
222 5. Estabilidad de sistemas dinámicos
1 3 1
P=
3 1 1
V̇ x = ẋ T P x + x T P ẋ = 2x T P ẋ = 2x T P( AX + B) =
= 2x T P Ax + 2x T P B = −x12 − x22 − (x1 + x2 )e−t x2 =
e−t
1 x1 < 0
= −(x1 x2 ) 2
−t
e
2
1 + e−t x2
debido a que los menores principales de esta matriz son siempre mayores que cero
1>0
e−t
1 + e−t − >0
4
por tanto, el sistema es asintóticamente estable.
Haciendo un cambio de variable para que este punto quede situado en el origen
(
x10 = x1 + 1
x20 = x2 + 1
0
ẋ1 2 0 x10
=
ẋ20 1 −1 x20
Este es un sistema lineal y en tiempo continuo, por lo que la función de Liapunov
que tomamos es
V (x) = x T P x
donde P debe ser definida positiva para que el sistema sea asintóticamente estable.
Si hacemos
AT P + P A = − Q = −I
para determinar P, obtenemos que
2 1 1p p 2
+
2 1 p1 p2
= −1 0
0 −1 p2 p3 1 −1 p2 p3 0 −1
y despejando queda
0 − 12
P =
− 12 1
2
que no es definida positiva, dado que p11 = 0, luego el punto de equilibrio no será
asintóticamente estable.
p1 = 1 + 0.25 p3
p2 = ap3
1 + 0.25 p3 + 2a 2 p3 + (a 2 − 1) p3 = −1
La solución de éste sistema es:
0.5 3a 2 − 1.25
p 1 = 1 − =
3a 2 − 0.75 3a 2 − 0.75
2a
p2 = − 2
3a − 0.75
2
p3 = −
3a 2 − 0.75
Para que P sea definida positiva se necesita
2
3a 2 − 1.25 −2 2a
| p1 | > 0 y · − >0 ⇒ a < 0.5
3a 2 − 0.75 3a 2 − 0.75 3a 2 − 0.75
Por tanto, si a < 0.5 se verifican ambas condiciones y P es definida positiva.
Según el teorema de Liapunov y teniendo en cuenta que V (x) = x T P x es
definida positiva y V̇ (x) = x T (G T P G − P)x es definida negativa, el sistema es
asintóticamente estable en el origen, para a < 0.5. Para a > 0.5 el sistema es
inestable.
f(y)
f (y)
K1 ≤ ≤ K2 para y 6= 0
y
f(y)
f(y)
pendiente K2
pendiente K1
ky
k
1
Re (1 + α jω)G( jω) + ≥ε
K
1
G 1 ( jω) − αωG 2 ( jω) + ≥ε (5.3.2)
K
Fabricamos una función auxiliar, denominada W ( jω), con la misma parte real que
G( jω) y con la parte imaginaria igual a ωIm(G( jω)):
Si hacemos
W ( jω) = x + j y
la condición 5.3.2 se transforma en:
1
x − αy + ≥ε
k
Lo que significa que para que el sistema sea estable la función W ( jω) debe estar a
la derecha de la línea definida por (figura 5.29):
1
x − αy + =0
K
1
G 1 ( jω) − αG 2 ( jω) + =0
K
Im
Pendiente 1/α
W(j ω)
-1/k Re
Ejemplo 5.3.1: Estudiar la estabilidad del sistema formado por una parte lineal
s+3
G(s) =
s2 + 7s + 10
y por una parte no lineal como la de la figura 5.30.
Solución:
Como se puede comprobar G(s) es estable. Como
jω + 3
G 1 ( jω) =
( jω)2 + jω7 + 10
4ω2 + 30
G1 =
ω4 + 29ω2 + 10
5.3. Método de Popov 229
Im
Κ=∞
Κ=0
Re
−ω(ω2 + 11)
G1 =
ω4 + 29ω2 + 10
Sustituimos en 5.3.2
4ω2 + 30 αω2 (ω2 + 11) 1
+ + ≥ε
ω4 + 29ω2 + 10 ω4 + 29ω2 + 10 K
1
(4ω2 + 30) + (αω2 (ω2 + 11)) + ( − ε)(ω4 + 29ω2 + 10) > 0
k
Para todo ω > 0 y para todo α > 0 y 0 < k < ∞, se deduce que el sistema es
estable.
Por otra parte
1
Re (1 + α jω)G( jω) + >0
K
se tiene
1
Re(G( jω) > − + αωIm(G( jω)), con α > 0.
K
Esto implica que la trayectoria de Nyquist para G( jω) está siempre a la derecha
de la línea de Popov definida por:
1
Re(G( jω) = − + αωIm(G( jω))
K
Por tanto, tal y como se puede apreciar en la figura 5.31, el sistema es estable en
[0,K].
230 5. Estabilidad de sistemas dinámicos
Im(G(jω))
ω=∞ ω=0
-1/K Re(G(jω))
arctg(1/(αω)
G(jω)
f(y)
Esto significa que la gráfica de f (y) está comprendida en una región cónica,
como la de la figura 5.27.
Considerando K como la media entre K 1 y K 2
K1 + K2
K =
2
como
K 1 y ≤ f (y) ≤ K 2 y
se tiene que
(K 1 − K )y ≤ f (y) − K y ≤ (K 2 − K )y
5.4. El criterio del círculo 231
es decir
1
| > Kr
G̃( jω)|
Sustituyendo G̃ por su valor, se tiene
1
G( jω) + K > K r
232 5. Estabilidad de sistemas dinámicos
f(y)
f(y)
pendiente K2
pendiente K1
K2-K1
f(y) K=
2
f(y)
pendiente K2
pendiente K1
~
f(y)
f(y) K
~
f(y) y
~r(t) + + y(t)
-
G(s)
-
~
f(y)
~
r(t) + e(t) ~ y(t)
-
G(s)
~
f(y)
Im
Kr
-K Re
1
G(jω)
Esta condición para la estabilidad para 1/G( jω) se puede ver en la figura 5.36.
Teniendo en cuenta los cortes del círculo con el eje real, se tiene
1 1
−K + K r ⇒ =−
−K + K r K1
1 1
−K − K r ⇒ =−
−K − K r K2
234 5. Estabilidad de sistemas dinámicos
Im
1 1
K1 K2 Re
G(jω)
Fig. 5.38: Curva de Nyquist para G y algunos círculos (de radio 0.3 y ∞) que
satisfacen el criterio del círculo
Bibliografía
[5] JJ.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.
236 5. Estabilidad de sistemas dinámicos
6. IDENTIFICACIÓN DE SISTEMAS
DINÁMICOS
6.1. Introducción
Una vez que se han establecido los tres aspectos anteriores, se habrá llegado
a un modelo particular: a aquel que mejor describe los datos de acuerdo con el
criterio que se ha elegido. Una vez alcanzado este punto, es necesario comprobar
si este modelo es suficientemente bueno, es decir, si resulta válido para el propósito
para el que se desea el modelo. Estas comprobaciones se denominan validación del
modelo.
Modelos paramétricos.
Son aquellos en los que el modelo matemático que se utiliza para descri-
bir el funcionamiento del sistema está completamente caracterizado por un
conjunto finito de coeficientes (parámetros).
Entre estos tenemos: las funciones de transferencia y los modelos de estado.
Modelos no-paramétricos.
Son aquellos métodos de caracterización de un sistema en los que para des-
cribir el funcionamiento del mismo se utiliza una o varias curvas de respues-
ta. Estas curvas de respuesta no tienen un número finito de coeficientes para
describirlas por lo que se denominan modelos no-paramétricos.
Entre estos métodos tenemos los métodos de respuesta frecuenciales: Bode,
Nyquist y Nichols que se basan en las curvas de respuesta en amplitud y
fase del sistema a diferentes frecuencias, y también la curva de respuesta
impulsional del sistema.
6.2. Familias de modelos utilizadas en identificación 239
Respuesta temporal
La salida de un sistema en tiempo discreto ante una cierta secuencia de entrada
u(k), k = 1, . . . , ∞ venía dada por la expresión
∞
X
y(k) = g(i)u(k − i) k = 0, 1, 2, . . .
i=0
Respuesta frecuencial
Otra forma tradicional de caracterizar experimentalmente la respuesta de un
sistema es por medio de la respuesta frecuencial, es decir por las curvas de res-
puesta de amplitud y fase.
La expresión teórica de la respuesta en frecuencia de un sistema era:
Y ( jω)
G( jω) =
U ( jω)
y recordemos que
y(k) 1 + b1 z −1 + . . . + bm z −q
G(q) = =
u(k) 1 + a1 z −1 + . . . + an z − p
puede formularse como
∞
X
y(k) = g( j)u(k − j)
j=1
∞
X
= g( j)[u(k)q − j ]
j=1
X∞
=[ g( j)q − j ]u(k)
j=1
= G(q)u(k)
donde
∞
X
G(q) = g(k)q −k
k=1
Si suponemos que el sistema está sometido a ruido, para el ruido puede hacerse
lo mismo obteniendo unas expresiones equivalentes
v(k) = H (q)e(k)
con
∞
X
H (q) = h(k)q −k
k=1
con lo que un modelo lineal con perturbación aditiva podrá expresarse de la si-
guiente forma
y(k) = G(q)u(k) + H (q)e(k) (6.2.1)
Dependiendo de la forma que adoptan las funciones G(q) y H (q) podemos
hablar de cuatro tipos de modelos básicos: ARX, ARMAX, OE y Box-Jenkins.
6.2. Familias de modelos utilizadas en identificación 241
donde e(k), es un ruido blanco, que entra como un error directo en la ecuación en
diferencias, por lo que a este modelo de estructura se denomina también de error
en ecuación. Denominaremos θ al vector de parámetros ajustables del modelo, que
en este caso son los siguientes:
θ = [a1 , . . . , ana , b1 , . . . , bn b ]T
si denominamos:
tenemos que
B(q)
G(q) = (6.2.4)
A(q)
1
H (q) = (6.2.5)
A(q)
Este modelo, mostrado en la figura 6.1, se denomina ARX, donde AR se refiere
a la parte autorregresiva de A(q)y(k) y X a la entrada B(q)u(k). En el caso especial
de que n a = 0, y(k) es modelado como un sistema con respuesta impulsional finita
(FIR). Modelos que son muy frecuentemente utilizados en procesado de señal.
Dado que por su estructura, muy simple, es el modelo más fácil de estimar, es
recomendable que se empiece por él.
con
C(q) = 1 + c1 q −1 + . . . + cn c q −n c
242 6. Identificación de sistemas dinámicos
e(k)
1
B(z)
B(z)
donde
B(q)
G(q) = (6.2.8)
A(q)
C(q)
H (q) = (6.2.9)
A(q)
θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c ]T
e(k)
C(z)
A(z)
A(z)
con
F(q) = 1 + f 1 q −1 + . . . + f n f q −n f
el modelo quedará como
B(q)
y(k) = u(k) + e(k) (6.2.12)
F(q)
θ = [b1 , . . . , bn b , f 1 , . . . , f n f ]T
B(q) C(q)
y(k) = u(k) + e(k) (6.2.13)
F(q) D(q)
244 6. Identificación de sistemas dinámicos
e(k)
F(z)
e(k)
C(z)
D(z)
F(z)
θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c , f 1 , . . . , f n f ]T
En general es el modelo más difícil de estimar. Es adecuado cuando las pertur-
baciones aparecen en la salida, por ejemplo, en el caso de ruido de salida.
sistemas en el espacio de estados, existe una relación sencilla entre este modelo y
la función de transferencia del sistema.
Al modelo anterior le corresponde un modelo de función de transferencia en
tiempo discreto de la forma
Y (z)
G(z) = X(z)
U (z)
= C[z I − G]−1 H + D (6.2.16)
Las variables afectadas por la entrada. Esto permite determinar que influen-
cias pueden ser o no ser despreciadas.
Las constantes de tiempo del sistema. Esto nos permite determinar cuál de
las relaciones en el modelo pueden considerarse como estáticas, esto se suele
hacer cuando sus constantes de tiempo son significativamente más rápidas
que la escala de tiempos a la que se está trabajando.
Desde un punto de vista teórico, es posible estimar por medio del análisis de la
respuesta temporal de un sistema a un impulso o un escalón, la respuesta impulsio-
nal de dicho sistema. Aunque, como veremos posteriormente, dicha estimación es
muy poco robusta a los efectos de las perturbaciones, por lo que, salvo en sistemas
con un nivel de ruido muy bajo, esta técnica suele descartarse.
y de esta expresión es muy fácil estimar la respuesta impulsional del sistema, que
se obtiene como
y(k)
ĝ(k) =
α
6.3. Métodos de estimación no-paramétricos 247
Ejemplo 6.3.1:
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
0 2 4 6 8 10 12 14 16 18 20
1.2
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
0 2 4 6 8 10 12 14 16 18 20
ν(k) − ν(k − 1)
(k) =
α
En general, si queremos determinar realmente los coeficientes de la respuesta
impulsional utilizando esta técnica, cometeremos errores muy grandes en la mayo-
ría de las aplicaciones prácticas. Sin embargo, si el objetivo es determinar algunas
características básicas relacionadas con aspectos de control, como son: el tiempo
de retardo, la ganancia estática y la constante de tiempo dominante, la respuesta a
un escalón puede darnos una información con un grado suficiente de precisión.
Ejemplo 6.3.2:
1 − 0, 1q −1
y(k) = u(k)
1 + 0, 25q −2
y a este sistema se le excita con una entrada de tipo escalón unitario, es decir con
una secuencia de entrada {1, 1, 1, 1, . . .}, la respuesta del sistema será la mostrada
en la figura 6.7, es decir
que será el modelo no-paramétrico del sistema. Se puede observar que el sistema
tiene una respuesta impulsional finita.
1.2
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10 12 14 16 18 20
Ruu (τ ) = E[u(k)u(k − τ )]
1 X
N
= lim E[u(k)u(k − τ )] (6.3.2)
N →∞ N
t=1
R yu (τ ) = E[y(k)u(k − τ )]
∞
X
= g(k)Ruu (k − τ ) (6.3.4)
k=1
1 X
N
R̂ yu (τ ) = y(k)u(k − τ ) (6.3.7)
N k=τ
X
M
R̂ yu (τ ) = ĝ(k) R̂uu (k − τ ) (6.3.9)
k=1
252 6. Identificación de sistemas dinámicos
−1
0 100 200 300 400 500 600 700 800 900 1000
Ejemplo 6.3.3:
−1
−2
0 100 200 300 400 500 600 700 800 900 1000
1.2
0.8
0.6
0.4
0.2
−0.2
0 10 20 30 40 50 60 70 80 90 100
0
Fase (deg); Magnitud (dB)
−1
−2
−3
20
15
10
5
To: Y(1)
−5
−10
−15
−20
−1 0
10 10
Frecuencia (rad/sec)
con
ϕ = 6 G(e jω )
Ejemplo 6.3.4:
1 − 0.1q −1
y(k) = u(k)
1 + 0.25q −2
6.3. Métodos de estimación no-paramétricos 255
+∞
1 X
Suu (ω) = Ruu (τ )e− jωτ (6.3.14)
2π τ =−∞
+∞
1 X
Syu (ω) = R yu (τ )e− jωτ (6.3.15)
2π τ =−∞
Ŝyu (ω)
Ĝ(e− jω ) = (6.3.16)
Ŝuu (ω)
Para realizar esta estimación es necesario encontrar una forma razonable de
estimar las densidades espectrales. Una posible forma de encarar este problema
256 6. Identificación de sistemas dinámicos
con lo que
1 XX
N N
Ŝyu (ω) = y(s)u(n)e− jωs e jωt (6.3.20)
2π N s=1 t=1
1
= Y N (ω)U N (−ω) (6.3.21)
2π N
donde
X
N
Y N (ω) = y(s)e− jωs (6.3.22)
s=1
X
N
U N (ω) = u(n)e− jωt (6.3.23)
t=1
son las transformadas discretas de Fourier de las secuencias {y(n)} y {u(n)}. Para
w = 0, 2π N
, 4π
N
, . . . , π pueden calcularse de forma muy eficiente usando la trans-
formada rápida de Fourier (FFT).
De forma análoga, para la densidad autoespectral de la entrada, podríamos ob-
tener que
1
Ŝuu (ω) = U N (ω)U N (−ω) (6.3.24)
2π N
y con estas dos expresiones podemos estimar la función de transferencia como
Y N (ω)
Ĝ(e− jω ) = . (6.3.25)
U N (ω)
6.3. Métodos de estimación no-paramétricos 257
y(t)
0.4
0.2
−0.2
−0.4
0 50 100 150 200 250 300 350 400 450 500
u(t)
0.3
0.2
0.1
−0.1
−0.2
−0.3
Ejemplo 6.3.5:
1 − 0.1q −1
y(k) = u(k)
1 + 0.25q −2
introduciendo de nuevo un ruido blanco en la entrada obtenemos la salida mos-
trada (figura 6.12) y aplicando el método del análisis espectral obtenemos que la
respuesta frecuencial del sistema es la mostrada en la figura 6.14 que como se pue-
de observar es completamente similar a la obtenida mediante la aplicación directa
del método de Bode con una frecuencia cada vez. Esta técnica tiene la gran ventaja
de que con un único ensayo se puede estimar la respuesta frecuencial de un sistema
(siempre que podamos generar el ruido blanco).
1
10
Módulo
0
10
−1
10
−2 −1 0 1
10 10 10 10
frecuencia (rad/sec)
20
15
10
5
Fase
−5
−10
−15
−2 −1 0 1
10 10 10 10
frecuencia (rad/sec)
es la facilidad con la que se puede generar puesto que basta utilizar un registro de
desplazamiento y una puerta O R − exclusiva. Esta función se denomina pseudo-
aleatoria puesto que se repite con un cierto periodo, que normalmente es elegible
para que tome un valor suficientemente alto.
x(t)
+a
t
-a
Rxx
a2
−δ δ
0 T -a2δ/T τ
δ= periodo básico
E[(y − g(ϕ))2 ]
g(ϕ) = θ1 ϕ1 + θ2 ϕ2 + . . . + θd ϕd
g(ϕ) = ϕ T θ
donde θ = [θ1 . . . θd ]T
260 6. Identificación de sistemas dinámicos
y(k) = ϕ T θ
donde:
θ es el vector de parámetros.
Recordemos que para una estructura de modelo del tipo ARX tenemos que
con e(k), ruido blanco de media cero. Si operamos con la ecuación anterior obte-
nemos un modelo de regresión lineal
y(1) = ϕ T (1)θ
y(2) = ϕ T (2)θ (6.4.4)
... ...
T
y(N ) = ϕ (N )θ (6.4.5)
6.4. Métodos paramétricos 261
Y = 8θ
donde
y(1)
y(2)
Y = .
..
y(N )
y
ϕ T
(1)
T
ϕ (2)
8= .
..
ϕ (N )
T
X
N
V (θ) = 2 (k) = T (6.4.7)
t=1
Se puede observar que (k), el error de ecuación, es una función lineal del
vector de parámetros θ.
d V (θ)
= −28T Y + 28T 8θ = 0
dθ
y de aquí obtenemos las denominadas ecuaciones normales
8T 8θ = 8T Y (6.4.8)
Esta ecuaciones tienen una única solución, que constituye un mínimo de la función
V (θ), si suponemos que la matriz 8T 8 es definida positiva.
Por lo tanto, despejando θ en la ecuación normal tenemos que el estimador de
mínimos cuadrados es
θ̂ = (8T 8)−1 8T Y (6.4.9)
y el valor mínimo de V (θ) es
1
V (θ̂) = [Y T Y − Y T 8(8T 8)−1 8T Y ]
2
El estimador de mínimos cuadrados obtenido en 6.4.9 puede escribirse como
!−1 !
1 X T 1 X
N N
θ̂(k) = ϕ (k)ϕ(k) ϕ(k)y(k) . (6.4.10)
N t=1 N t=1
Ejemplo 6.4.1: Supongamos que se tiene un cierto sistema que se pretende iden-
tificar. A dicho sistema se le introduce en la entrada un escalón unitario u(0) =
1, u(1) = 1, u(2) = 1, u(3) = 1, . . . y se observa que la salida del sistema toma
los siguientes valores en los 4 primeros periodos de muestreo: y(0) = 0, y(1) =
0.65, y(2) = 0.85, y(3) = 0.92, . . ..
6.4. Métodos paramétricos 263
φ(k) = u(k − 1)
θ = b1
θ̂ = (8T 8)−1 8T Y
−1
h i 0 h i 0
= 0 1 1 1 0 1 1
0.65
1 0.85
0.65 + 0.85
= = 0.75
2
es decir el modelo que obtendríamos sería y(k) = 0.75u(k − 1). Este mode-
lo estimado da para la secuencia de entradas anteriores las siguientes salidas
y(0) = 0, y(1) = 0, y(2) = 0.75, y(4) = 0.75, . . .. Por lo tanto la se-
cuencia de errores que comete el modelo es (0) = 0, (1) = 0.65, (2) =
0.10, (4) = 0.17, . . ..
h iT
φ(k) = −y(k − 1) u(k − 1)
h iT
θ = a1 b1
Utilizando como en el caso anterior, por simplicidad, los tres primeros valo-
264 6. Identificación de sistemas dinámicos
De los tres modelos analizados, y para los datos que se están considerando el
modelo que mejor se ajusta es el modelo 2, pues el tercero de los modelos para el
último dato ajusta mal.
θ = [x0 v0 a]T
y el de regresores
1 2
ϕ = [1 t t ]
2
con lo que la matriz 8 será
1 0 0
1 0.2 0.02
8 = .
..
.. .
1 1 0.5
θ̂ = (8T 8)−1 8T Y
h iT
= x̂0 v̂0 â
h iT
= 4.79 234 55.4
266 6. Identificación de sistemas dinámicos
P −1 (k) = 8T (k)8(k)
T
8(k − 1) 8(k − 1)
=
ϕ T (k) ϕ T (k)
h i 8(k − 1) (6.4.13)
= 8T (k − 1)ϕ(k)
ϕ T (k)
= 8(k − 1)T 8(k − 1) + ϕ(k)ϕ T (k)
= P −1 (k − 1) + ϕ(k)ϕ T (k)
de donde tenemos que la ecuación 6.4.11 para el instante de tiempo k puede rees-
cribirse como
es decir
A = P(k − 1)−1
B = ϕ(k)
C=I
D = ϕ T (k)
donde los valores de los parámetros verdaderos del sistema son a1 = 0.5, b1 = 1
y además suponemos que el sistema esta sometido a una entrada del tipo escalón
unitario. El sistema está también sometido a un ruido blanco e(k) con media cero
y varianza 0.1. Es decir
b1 q −1 1
y(k) = −1
u(k) + e(k)
1 − a1 q 1 − a1 q −1
Suponiendo que el modelo matemático del sistema es de primer orden y esti-
mando mediante mínimos cuadrados recursivos el sistema, obtenemos los resulta-
dos mostrados en la figura 6.15 que nos dan como resultado el siguiente modelo
estimado
0.4759q −1 1
y(k) = −1
u(k) + e(k)
1 − 1.0006q 1 − 1.0006q −1
40
Salida real vs. salida estimada
30 salida estimada
20
10
salida real
0
0 10 20 30 40 50 60 70 80 90
Tiempo (segs)
Error en la predicción
−1
−2
0 10 20 30 40 50 60 70 80 90
Tiempo(segs)
Fig. 6.15: Resultados del ejemplo 6.4.3: salidas real y estimada del sistema, y el
error
y el de parámetros como
θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c ]T
El problema está en que las variables e(k) que entran dentro del vector ϕ0 no
son medibles, y por lo tanto no puede realizarse la estimación del vector de pará-
metros de esta manera. Es necesario reemplazar los componentes e(k) por alguna
estimación de los mismos. De la ecuación del modelo tenemos
6.4. Métodos paramétricos 271
θ̂(k) = [â1 (k), . . . , âna (k), b̂1 (k), . . . , b̂n b (k), ĉ1 (k), . . . , ĉn c (k)]T
con
2. Elección del tamaño del modelo. Esto implica determinar el orden del mo-
delo en el espacio de estados o los grados de los polinomios que constituyen
el modelo.
La calidad del modelo resultante puede medirse por ejemplo por medio del
criterio del error cuadrático medio. Normalmente, la mejor estructura de modelo
suele ser un compromiso entre dos aspectos:
seleccionar de entre todos los modelos el que menor función de pérdidas tiene.
Este procedimiento se denomina validación cruzada.
Cuando el modelo se valida sobre el mismo conjunto de datos sobre el que
se ha realizado la estimación de los parámetros, el ajuste mejora cuanto mayor es
el orden del modelo que se ajusta. Esto es necesario compensarlo para evitar que
los sistemas tengan una complejidad innecesaria. Entre las técnicas más utilizadas
están el criterio del error final de predicción (FPE) debido a Akaike y el criterio
de información teórica (AIC) muy relacionado con el anterior.
Bibliografía
[1] L. Ljung, System Identification: Theory for the User, Prentice Hall, 1987.
Gc
Y (s) G p (s)
= G f (s) . (7.1.2)
R(s) 1 + G p (s)G c (s)
los polos y ceros del mismo al estar situada en la cadena principal antes del lazo de
realimentación. Sin embargo, no altera las posiciones de los polos y ceros del lazo
de realimentación, salvo en el caso de que se produzcan cancelaciones polo-cero
entre G f y la función de transferencia del lazo de realimentación.
Por otra parte el término G c al estar situado en el lazo de realimentación afecta
de forma significativa a las posiciones de los polos del sistema en bucle cerrado,
alterando de forma importante la dinámica del sistema. Simplificando un poco,
podríamos pensar que mientras que con el diseño de G f buscamos ajustar o me-
jorar la respuesta en régimen permanente del sistema, con G c se busca ajustar la
respuesta transitoria.
Esta estructura de control se utilizará de forma extensiva en el control por rea-
limentación de estado que se estudiará en el próximo capítulo. Un caso particular
de esta estructura de control es cuando G f = G c . En este caso se pierde libertad
en el diseño ya que sólo se dispone de una función de transferencia. De esta forma,
el esquema de control se simplifica tal y como se puede apreciar en el esquema (a)
de la figura 7.2, pudiéndose expresar también por medio del esquema equivalente
(b) de dicha figura.
r u y
+
Gc Gp
-
(a)
Gc
r e u y
+ Gp
Gc
-
(b)
7.3. Especificaciones
K ωn2
G(s) = (7.3.1)
s 2 + 2ξ ωn s + ωn2
1 p
y(t) = 1 − p e−ξ ωn t sin(ωn t 1 − ξ 2 + φ) (7.3.2)
1 − ξ2
278 7. Técnicas clásicas de control
con p
1 − ξ2
φ = arctan (7.3.3)
ξ
Este sistema tiene sus polos situados en
p
p1,2 = −ξ ωn ± jωn 1 − ξ 2 (7.3.4)
y To
d·Mp
Mp
ep
Tp t
Ts
Entre los parámetros que se pueden utilizar para especificar la respuesta tene-
mos los siguientes:
Tiempo de pico,
π
Tp = (7.3.5)
ωd
p
donde ωd es la frecuencia amortiguada ωd = ωn 1 − ξ 2 .
Tasa de decaimiento, d.
ξ
−2π √
d=e 1−ξ 2 (7.3.6)
Sobreoscilación, M p .
−π √ ξ √
Mp = e 1−ξ 2 = d (7.3.8)
7.4. Control PID 279
Tiempo de establecimiento, Ts .
π
Ts ' (7.3.9)
ξ ωn
Los controladores del tipo PID son con mucha diferencia los más frecuente-
mente utilizados en la industria de control de procesos, donde más del 95 % de los
lazos de control utilizan controladores PID. Su sencillez, versatilidad y capacidad
para resolver los problemas básicos que se presentan en los procesos con dinámica
favorable y requisitos de funcionamiento modestos hacen de ellos una herramienta
imprescindible en el control de procesos.
A lo largo de las últimas décadas los controladores PID han sobrevivido a di-
ferentes cambios tecnológicos que van desde los primeros controladores desarro-
llados a partir de elementos neumáticos hasta los desarrollados con microprocesa-
dores pasando por las válvulas electrónicas, los dispositivos analógicos, los tran-
sistores y los circuitos integrados. La incorporación de los microprocesadores ha
tenido un impacto muy grande ya que ha permitido que los controladores PID se
enriquezcan en funciones colaterales sin perder ninguna de sus propiedades, así se
les han añadido posibilidades de ajuste automático de los parámetros, posibilidades
de ejecución de reglas lógicas o automatismos secuenciales.
Por todo ello, y aunque existen técnicas de control más sofisticadas, en el nivel
más bajo de control de muchos procesos sigue estando presente o incluso es el
mayoritario. En las próximas páginas nos referiremos a él.
control: la acción proporcional con peso K , la acción integral con peso TKi y la
acción derivativa con peso K Td .
Para ajustar el comportamiento del controlador se dispone de tres parámetros:
la ganancia proporcional K , el tiempo integral Ti y el tiempo derivativo Td . Se pue-
de observar que si el tiempo integral se hace infinito, la acción integral desaparece
y que si el tiempo derivativo se hace cero desaparece la acción derivativa.
La función de transferencia del controlador PID es la siguiente
U (s) 1 K (1 + sTi + s 2 Ti Td )
= K [1 + + Td s] = (7.4.2)
E(s) Ti s sTi
En este controlador el ajuste busca determinar las posiciones de los dos ceros
de la función de transferencia y de la ganancia estática del mismo, para que se
cumplan lo mejor posible las especificaciones de diseño deseadas en el sistema.
La ecuación 7.4.2 no es físicamente realizable, por lo que se denomina regu-
lador PID teórico. Para que un PID sea físicamente realizable habrá que añadir a
la acción derivativa un polo, con una influencia limitada. Un regulador PID real
tendrá la forma
1 + sTi + s 2 Ti Td
G c (s) = K (7.4.3)
(1 + sTi )(1 + sTd )
El ajuste de los parámetros del regulador se puede hacer de dos formas:
en 1942. Estos métodos son aún ampliamente utilizados, bien en su forma original
o con versiones mejoradas.
Ambos métodos se basan en la determinación de algunas características de la
respuesta del proceso, temporal o frecuencial, para determinar a partir de dichas
características y por medio de unas relaciones matemáticas muy simples los pará-
metros del controlador que da una respuesta con tasa de decaimiento de un cuarto
entre los valores de la primera y la segunda sobreoscilación.
a −s L
G(s) = e (7.4.4)
sL
L t
a
a −s L
Fig. 7.4: Respuesta ante entrada escalón de G(s) = sL
e
282 7. Técnicas clásicas de control
Controlador K Ti Td
P 1/a
PI 0.9/a 3L
PID 1.2/a 2L L/2
Tab. 7.1: Valores de los parámetros propuestos por Ziegler-Nichols para el método
de respuesta a un escalón
Este controlador está diseñado para dar una tasa de decaimiento de un cuarto
(d=0.25) entre las magnitudes de la primera y la segunda sobreoscilación, por lo
que generalmente presenta una sobreoscilación alta. Tiene la ventaja de que a partir
de estos valores es fácil realizar un ajuste más fino para adecuarlos a la respuesta
que se desea sin la necesidad de un largo proceso de prueba y error.
r + e u y
K G(s) a)
-
y
K<Ku b)
y
K=Ku, Tu c)
y
K>Ku d)
Fig. 7.5: Obtención de la ganancia crítica y del periodo crítico para el segundo
método de Ziegler-Nichols
Controlador K Ti Td
P 0.5K u
PI 0.4K u 0.8Tu
PID 0.6K u 0.5Tu 0.125Tu
Tab. 7.2: Valores de los parámetros propuestos por Ziegler-Nichols para el método
frecuencial
Estos métodos buscan determinar de forma analítica los valores más adecuados
de los parámetros de un controlador PID de forma que se cumplan unas especifi-
caciones determinadas. Veremos dos técnicas analíticas para realizar el cálculo de
estos parámetros: la primera de estas técnicas (asignación de polos) es aplicable
a sistemas de segundo orden, y la segunda (diseño basado en los polos dominan-
tes) es aplicable a sistemas complejos. Ambas técnicas requieren un conocimiento
previo de la función de transferencia del proceso que se desea controlar.
Kp
G p (s) = (7.5.1)
1 + sT
G p (s)G c (s)
G(s) = (7.5.3)
1 + G p (s)G c (s)
1 Kp
1+K 1+ = 0
sTi (1 + sT )
2 1 + KpK KpK
s +s + = 0 (7.5.5)
T T Ti
Supongamos que se desea que la respuesta del sistema en bucle cerrado sea
la de un sistema de segundo orden con una tasa de amortiguamiento ξ y con una
frecuencia ωn . Es decir, se deseanp
situar los polos en cadena cerrada del sistema en
las posiciones p1,2 = −ξ ωn ± ωn 1 − ξ 2 . Por lo que la ecuación característica en
bucle cerrado tendrá la expresión
s 2 + 2ξ ωn s + ωn2 = 0 (7.5.6)
1 + KpK
2ξ ωn = (7.5.7)
T
KpK
ωn2 = (7.5.8)
T Ti
y despejando en 7.5.7 y 7.5.8 tenemos que
2ξ ωn T − 1
K = (7.5.9)
Kp
2ξ ωn T − 1
Ti = (7.5.10)
ωn2 T
de libertad para poder fijar arbitrariamente los tres polos que tendrá el sistema en
bucle cerrado.
Sea la función de transferencia del sistema de segundo orden de la forma
Kp
G p (s) = (7.5.11)
(1 + sT1 )(1 + sT2 )
y supongamos que queremos controlar el sistema por medio de un controlador de
tipo PID, que responde a la siguiente expresión
(1 + sTi + s 2 Ti Td )
G c (s) = K (7.5.12)
sTi
con lo que la ecuación característica del sistema en bucle cerrado 1+G p (s)G c (s) =
0, será
3 2 1 1 K p K Td 1 KpK KpK
s +s + + +s + + = 0 (7.5.13)
Ti T2 T1 T2 T1 T2 T1 T2 T1 T2
KpK
ωn2 α = (7.5.15)
TT
1 2
2 1 KpK
ωn + 2ξ ωn α = + (7.5.16)
T1 T2 T1 T2
1 1 K p K Td
2ξ ωn + α = + + (7.5.17)
Ti T2 T1 T2
T1 T2 (2ξ ωn + α) + 1
K = (7.5.18)
Kp
KpK
Ti = (7.5.19)
T1 T2 ωn2 α
T1 T2 ωn3 α(ωn + 2ξ α)
Td = (7.5.20)
T1 T2 (2ξ ωn + α) − 1 + T1 ωn2 α(ωn2 α + 1)
7.5. Métodos analíticos de diseño de controladores PID 287
G c (s) = K (1 + Td s) (7.5.21)
ya que el sistema aunque es de segundo orden tiene un polo en el origen en la
función de transferencia, por lo que el sistema no requiere añadir un efecto inte-
gral en el controlador para anular el error de posición en régimen permanente. Al
no incluir efecto integral en el regulador el sistema en cadena cerrada tendrá una
ecuación característica de orden 2. El sistema en bucle cerrado tiene una ecuación
característica de la forma
1
1 + K (1 + Td s) =0 (7.5.22)
s(s + 2)
y se desea que tenga la ecuación característica 7.5.6 en bucle cerrado. Para ello
igualamos 7.5.6 a 7.5.22,
K = ωn2 (7.5.24)
2ξ ωn − 2
Td = (7.5.25)
ωn2
y sustituyendo por los valores de las especificaciones que se han indicado tenemos
que K = 9.86 y Td = 0.115. Con lo que el regulador resultante tiene la expresión:
2.5
y(t)
2
(a)
1.5
1
(b)
0.5
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t
Fig. 7.6: Respuesta del sistema del ejemplo 7.5.1: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
Determinación algebraica
El problema es similar al de la sección anterior. Si se introduce un regulador P,
necesitamos situar un polo para poder determinar el parámetro del regulador. Si se
desea introducir un regulador PI o PD es necesario asignar dos polos para calcular
los parámetros del regulador y si se introduce un regulador PID es necesario fijar
tres polos.
Supongamos, para ilustrar el funcionamiento de esta técnica, que se desea di-
señar un regulador de tipo PI para controlar un sistema. Dicho regulador tiene dos
parámetros por lo que para determinar el valor de los mismos necesitamos situar la
posición de dos polos del sistema en bucle cerrado.
Supongamos que la ecuación del controlador es de la forma
1
G c (s) = K 1 + (7.5.27)
1 + sTi
el sistema en bucle cerrado tiene la siguiente función de transferencia
G p (s)G c (s)
G(s) = (7.5.28)
1 + G p (s)G c (s)
con lo que la ecuación característica del sistema en bucle cerrado viene definida
por
1
1 + G p (s)K 1 + =0 (7.5.29)
1 + sTi
Necesitamos fijar las posiciones de dos polos p1,2 , por lo que podemos suponer
que estos son complejos conjugados de forma que tengan un cierto amortiguamien-
to ξ y una cierta frecuencia ωn , es decir
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) (7.5.30)
En el caso de que el controlador que se necesita sea de tipo PD estamos en una
situación similar, pues hemos de determinar dos parámetros del regulador, cuya
función de transferencia es
G p (s)G c (s)
G(s) = (7.5.33)
1 + G p (s)G c (s)
con lo que la ecuación característica del sistema en bucle cerrado viene definida
por
1
1 + G p (s)K 1 + + sTd = 0 (7.5.34)
1 + sTi
Necesitamos fijar las posiciones de tres polos p1,2,3 , por lo que podemos su-
poner que dos de estos son complejos conjugados de forma que tengan un cierto
amortiguamiento ξ y una cierta frecuencia ωn , y el otro es un polo situado en −α
es decir
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) (7.5.35)
p3 = −α (7.5.36)
Ejemplo 7.5.2: Sea el sistema mostrado en la figura 7.7, cuya función de trans-
ferencia es
1
G p (s) = (7.5.37)
s(s + 2)(s + 8)
y supongamos que queremos introducir un controlador en el sistema de forma
r +
e
G c ( s ) u y
+ 2 + 8
s ( s ) ( s )
1
1 + K (s + a) = s 3 + 10s 2 + (16 + K )s + K a = 0 (7.5.39)
s(s + 2)(s + 8)
por otra parte, queremos fijar las posiciones de dos de los polos en las posiciones
7.5.38. Como el sistema es de tercer orden el tercer polo estará en una posición
(s + b) con lo que la ecuación característica en bucle cerrado tendrá el aspecto
siguiente
10 = 2ξ ωn + b
16 + K = 2ξ ωn b + ωn2 (7.5.41)
Ka = ωn2 b
b = 10 − 2ξ ωn = 6.86
K = 2ξ ωn b + ωn2 − 16 = 15.4 (7.5.42)
ωn2 b
a = = 4.392
K
con lo que el regulador PD que sitúa los polos dominantes en las posiciones desea-
das en cadena cerrada es
1.4
1.2
y(t)
(b)
1
0.8
0.6
0.4
(a)
0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t (s)
Fig. 7.8: Respuesta del sistema del ejemplo 7.5.2: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
En la práctica, el dibujo del lugar de las raíces de un cierto sistema nos puede
indicar si será suficiente variar la ganancia del sistema para alcanzar las especifi-
caciones que nos han dado. Es decir, en el caso de que el lugar de las raíces pase
por las posiciones deseadas para los polos en cadena cerrada bastará con ajustar
al valor adecuado la ganancia del sistema para cumplir con las especificaciones
de respuesta transitoria exigidas. Si esto no ocurre, será necesario introducir en el
sistema un controlador que modifique el lugar de las raíces en la forma adecuada.
Si recordamos el efecto que tenían la adición de polos y ceros al sistema, es
relativamente simple determinar que tipo de estructura deberá tener el controlador
que introduzcamos en el sistema.
j w
j w j w
x
x x x x x
̌ 0
̌ 0
( a )
( b ) ( c )
x x x 0
̈ x
̈ x x 0
x x
̈ x 0
̌ ̌ ̌
( a )
( b )
( c )
Ejemplo 7.5.3: Para el sistema de la figura 7.7 se puede observar que si se intro-
duce un regulador proporcional y se varía el valor de la ganancia K
1 + K G p (s) = 0 (7.5.44)
294 7. Técnicas clásicas de control
los polos de la ecuación característica del sistema se mueven por las ramas del
lugar de las raíces, que para este sistema tendría un aspecto como el indicado en la
figura 7.11. Si observamos las posiciones de los polos dominantes Pd del sistema se
puede apreciar que el lugar de las raíces no pasa por ellos, por lo que no basta con
un regulador proporcional. Si deseamos que el lugar de las raíces pase por dichos
puntos y que estos sean los polos dominantes en cadena cerrada del sistema, nos
basta con introducir un regulador de tipo PD. Este regulador al introducir un cero,
si se elige la posición del mismo adecuadamente, puede hacer pasar el lugar de las
raíces por las posiciones deseadas.
Pd
ωn
θ
x x x
-8 -2 0
P'd
Fig. 7.11: Lugar de las raíces para el sistema del ejemplo 7.5.3
|G(s)| = 1 (7.5.45)
6 G(s) = (2q + 1)π q = 0, ±1, ±2, . . . (K > 0) (7.5.46)
(s + z 1 )(s + z 2 ) . . . (s + z m )
G(s) = K (7.5.47)
(s + p1 )(s + p2 ) . . . (s + pn )
o lo que es lo mismo
Qn Qn
j=1 |s + p j | j=1 distancias desde p j a Pd
|K | = Qm = Qm (7.5.49)
i=1 |s + z i | i=1 distancias desde z i a Pd
y
X
m X
n
6 G(s) = 6 K + 6 (s + z i ) − 6 (s + p j ) = (2q + 1)π (7.5.50)
i=1 j=1
o lo que es lo mismo
X
m
−−→ X 6 −−→
n
6 K+ 6 z i Pd − p j Pd = (2q + 1)π (7.5.51)
i=1 j=1
En nuestro caso, dadas las posiciones de los polos del proceso y del regulador,
tendremos que si queremos que el lugar de las raíces pase por las posiciones
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) = −1.57 ± j2.72 (7.5.52)
deben de cumplirse los criterios del módulo 7.5.48 y del argumento 7.5.50. Los
argumentos para los polos cuyas posiciones conocemos son (fig 7.12):
β1 = 120o (7.5.53)
2.72
β2 = arctan = 81.01o (7.5.54)
2 − 1.57
2.72
β3 = arctan = 22.93o (7.5.55)
8 − 1.57
como debe de cumplirse el criterio del argumento
180o = α1 − (β1 + β2 + β3 ) (7.5.56)
y despejando α1 = 43.93o . Conociendo este ángulo podemos determinar la posi-
ción donde debe de estar situado el cero para que forme dicho ángulo con el punto
donde está situado el polo dominante −1.57 + j2.72. El resultado es que dicho
cero está situado en a = 4, 39. Para determinar la ganancia K aplicamos el criterio
del módulo
n1n2n3
K = (7.5.57)
m1
y sustituyendo por los valores de n 1 , n 2 , n 3 , m 1 obtenemos que K = 15.4. Con lo
que el regulador PD que sitúa los polos dominantes en las posiciones deseadas en
cadena cerrada es
G c (s) = 15.4(s + 4.39) (7.5.58)
Como se puede apreciar los valores que se han obtenido por ambos métodos
son similares (Fig.7.13).
296 7. Técnicas clásicas de control
Pd
j2.72
ωn=n
1
n3 m1 n2
β3 α1 β2 θ β1
x x x
-8 -a -2 0
Fig. 7.12: Aplicación del criterio del módulo y del argumento para el ejemplo 7.5.3
1.4
1.2
y(t) (b)
1
0.8
0.6
0.4
(a)
0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t (s)
Fig. 7.13: Respuesta del sistema del ejemplo 7.5.3: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
Con lo visto hasta este momento sería factible dadas unas ciertas especifica-
ciones diseñar un regulador continuo para un cierto proceso. La mayoría de los
procesos industriales son de naturaleza continua por lo que resulta natural dise-
ñar el controlador en tiempo continuo. Sin embargo, hoy en día, la mayoría de los
controladores son de tipo discreto, por lo que resulta necesario discretizar el regu-
lador para poderlo implantar. Tal y como se ha visto, la ecuación diferencial de un
7.5. Métodos analíticos de diseño de controladores PID 297
T X
k−1
Td
u(k) = K [e(k) + e(i) + (e(k) − e(k − 1))] (7.5.60)
Ti i=0 T
para obtener una expresión recursiva que evite el sumatorio, se obtiene la expresión
para k − 1, que será
T X
k−2
Td
u(k − 1) = K [e(k − 1) + e(i) + (e(k − 1) − e(k − 2))] (7.5.61)
Ti i=0 T
donde
Td
q0 = K 1 +
T
Td T
q1 = −K 1 + 2 − (7.5.63)
T Ti
Td
q2 = K
T
La función de transferencia en z queda de la forma
U (z) q0 + q1 z −1 + q2 z −2
G(z) = = (7.5.64)
E(z) 1 − z −1
Si se hubiese aproximado la integral mediante la aproximación trapezoidal, la
expresión de u(k) sería
" ! #
T e(0) + e(k) X
k−1
Td
u(k) = K e(k) + e(i) + (e(k) − e(k − 1)) (7.5.65)
Ti 2 i=1
T
y el controlador quedaría
u(k) = u(k − 1) + q0 e(k) + q1 e(k − 1) + q2 e(k − 2) (7.5.66)
298 7. Técnicas clásicas de control
donde
Td T
q0 = K 1+ +
T 2Ti
Td T
q1 = −K 1 + 2 − (7.5.67)
T 2Ti
Td
q2 = K
T
Ejemplo 7.5.4: Supongamos que se ha diseñado un controlador PID continuo
con parámetros K = 2, Td = 5 , Ti = 50 que se desea discretizar con un periodo
de muestreo de T = 1 segundos.
Utilizando la integración rectangular hacia adelante los parámetros que resultan
para el controlador son
Td
q0 = K 1 + = 12
T
Td T
q1 = −K 1 + 2 − = −21.96 (7.5.68)
T Ti
Td
q2 = K = 10
T
y si se utiliza la integración trapezoidal los parámetros serán:
Td T
q0 = K 1 + + = 12.02
T 2Ti
Td T
q1 = −K 1 + 2 − = −21.80 (7.5.69)
T 2Ti
Td
q2 = K = 10
T
Otra solución a la discretización de reguladores P I D es utilizar el teorema de los
residuos con un bloqueador de orden cero y un muestreador de periodo T
X
−1 G(s) 1
G(z) = (1 − z ) Res (7.5.70)
Polos dentro de C
s 1 − e pT z −1
Uno de los métodos más extendidos de implementación del control por compu-
tador, se basa en el diseño del regulador continuo mediante técnicas clásicas en el
plano s para su posterior discretización utilizando el teorema de residuos. Nótese
que la implementación por computador implica la introducción de un muestreador
y de un bloqueador, generalmente de orden cero. La función de transferencia de
−sT
este bloqueador es 1−es , cuyo numerador equivalente en el plano z es (1 − z −1 ).
En los dos siguientes ejemplos se muestra el método indicado, con la particularidad
de aplicar en uno de ellos la discretización a un sistema con polos múltiples.
7.5. Métodos analíticos de diseño de controladores PID 299
r e u 1 y
+ Gc(s)
- s(s+2)
Como se observa en la figura 7.15, para alcanzar los polos dominantes hay que
introducir un regulador de tipo P D real con la función de transferencia G c (s) =
K s+a
s+b
. Para ajustar la posición del polo en −b, utilizaremos el método de cance-
lación del cero del regulador en −a con el polo del sistema en −2. Utilizando el
Pd
j2.72
ωn=n
1
n3 n2
β3 β2 θ β1
x x x
-b -a=-2 0
m1=n2
α1=β2
α1 − β1 − β2 − β3 = (2q + 1)π
De esta forma la posición del polo del regulador b es −3.14. Para la determinación
de la ganancia utilizamos el criterio del módulo
De esta forma el regulador continuo que cumple las especificaciones tiene la forma
s+2
G c (s) = 9.86
s + 3.14
Para discretizar este regulador tendremos que elegir en primer lugar el tiempo de
muestreo y posteriormente, discretizarlo. Para la elección del tiempo de muestreo
T utilizaremos el método empírico de 1/8 del periodo de la respuesta amortiguada
del sistema que es el doble del tiempo de pico T p (ver apartado siguiente).
2π 2π
To = p = √ = 2.31
ωn 1 − ζ 2 3.14 1 − 0.52
2.31
T = = 0.28 ≈ 0.2
8
El controlador discreto equivalente está representado en la figura 7.16. Para la
obtención de G c (z) utilizaremos el método de discretización basado en el teorema
de los residuos.
r e u(k) u(t) 1 y
+ Gc(z) B0
- s(s+2)
X
−1 1 1
G c (z) = (1 − z ) R G c (s) =
s (1 − e pT z −1 )
X s+2 1 1
−1
= (1 − z ) R 9.86 =
(s + 3.14) s (1 − e pT z −1 )
−1 2 1 1.14 1
= (1 − z )9.86 +
3.14 (1 − z −1 ) 3.14 (1 − e−3.14·0.2 z −1 )
−1 1 1
= (1 − z ) 6.277 + 3.578
(1 − z −1 ) (1 − 0.533z −1 )
(1 − z −1 ) z − 0.702
= 6.277 + 3.578 −1
= 9.855
(1 − 0.533z ) z − 0.533
En la figura 7.17 se representan las respuestas del sistema en bucle cerrado,
ante entrada escalón, con los reguladores continuo y discretizado. Como se puede
observar, ambas respuestas son muy semejantes, siendo la del regulador discreto
un poco más oscilatoria, debido a que el tiempo de muestreo elegido es el máxi-
mo posible. Si el tiempo de muestreo se reduce, la calidad de la respuesta mejora
significativamente. Si, por ejemplo, el tiempo de muestreo es T = 0.05 seg, el
regulador discreto tiene la forma
z − 0.9073
G c (z) = 9.86
z − 0.8547
cuya respuesta se puede observar en la figura 7.18.
1.4
b)
1.2
a)
0.8
y
0.6
0.4
0.2
0
0 1 2 3 4 5 6
tiempo
Fig. 7.17: Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los con-
troladores a) continuo y b) discretizado equivalente para T = 0.2
302 7. Técnicas clásicas de control
1.4
b)
1.2
a)
0.8
y
0.6
0.4
0.2
0
0 1 2 3 4 5 6
tiempo
Fig. 7.18: Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los con-
troladores a) continuo y b) discretizado equivalente para T = 0.05
X
−1 1 1
G c (z)G(z) = (1 − z ) R G c (s)G(s) =
s 1 − e pT z −1
X
−1 1 1 1
= (1 − z ) R 9.86 =
s(s + 3.14) s 1 − e pT z −1
"
−1 1 d 2 1 1
= 9.86(1 − z ) s 2
(2 − 1)! ds s (s + 3.14) (1 − e pT z −1 ) p=0
1 1
+ −3.14·0.2
(−3.14) 1 − e
2 z −1
1.2
0.8
y
0.6
0.4
0.2
0
0 1 2 3 4 5 6
tiempo
Fig. 7.19: Resultados del sistema del ejemplo 7.5.6 en bucle cerrado con el contro-
lador en tiempo continuo y el controlador discreto equivalente
del periodo de muestreo depende de: las prestaciones que se desean alcanzar, la
dinámica del proceso, el espectro de las perturbaciones, el actuador, el equipo de
medida disponible y el coste computacional entre otros aspectos.
En términos generales, se puede apreciar que, las prestaciones de un cierto sis-
tema de control no varían sustancialmente a partir de un cierto periodo de muestreo.
Por ello, y dado que muestrear con periodos muy pequeños suele encarecer el coste
del controlador, debe de elegirse razonablemente.
Por otro lado la dinámica del sistema tiene una gran influencia sobre el tiempo
de muestreo, tanto por estructura de la función de transferencia como por las cons-
tantes de tiempo presentes en ella. En general cuanto mayores son las constantes
de tiempo mayores pueden ser los periodos de muestreo.
Otro aspecto a considerar es el espectro de las señales de perturbación presentes
en el sistema.
Por simplificar un poco, dos posibles reglas empíricas de elección podrían ser:
Elegir el tiempo de muestreo de forma que este tiempo sea como máximo
una décima parte de la menor constante de tiempo presente en el sistema.
t0 2.31
T = = = 0.28 (7.5.73)
8 8
Si promediamos entre ambos valores, para este sistema un periodo de mues-
treo razonable sería de T = 0.2 segundos. Como se observa en la figura 7.20, las
respuestas continua y muestreada son muy similares.
7.5. Métodos analíticos de diseño de controladores PID 305
1.4
y(t)
1.2
(a)
1
0.8
0.6 (b)
0.4
0.2
0
0 1 2 3 4 5 6
t
Fig. 7.20: Respuesta del sistema del ejemplo 7.5.7: (a) en tiempo continuo y (b)
muestreado con T = 0.2 segundos
Se han estudiado hasta ahora diversos métodos analíticos para el diseño de re-
guladores PID continuos, cómo pueden discretizarse posteriormente los controla-
dores y cual podría ser un periodo de discretización razonable. Es posible también
hacer el diseño del controlador directamente en tiempo discreto. Esto requiere en
primer lugar obtener un equivalente discreto del sistema y convertir las especifi-
caciones temporales que se deseen para el sistema continuo en especificaciones
definidas en términos del plano z discreto (normalmente las posiciones deseadas
para los polos en cadena cerrada o al menos las de los polos dominantes).
Si suponemos que los polos deseados para el comportamiento del sistema con-
tinuo en cadena cerrada están definidos en el plano s, en las posiciones
p
s = −ξ ωn ± jωn 1 − ξ 2 (7.5.74)
p
z = exp [T (−ξ ωn ± jωn 1 − ξ 2 )] (7.5.75)
r +
e
G c ( z ) u y
( z ) ( z )
- 0 . 9 - 0 . 6
Pd 0.75
0.3 0.66
x x
0.6 0.9 Re
P'd
Fig. 7.22: Lugar de las raíces para el sistema del ejemplo 7.5.6
|z| = e−T ξ ωn
p
6 z = ±T ωn 1 − ξ 2 = ±T ωd = ±θ (7.5.76)
Las técnicas de obtención de los parámetros de un regulador PID discreto que
haga que el sistema cumpla unas ciertas especificaciones son básicamente las mis-
mas que las comentadas para el caso continuo. Las reglas de construcción del lugar
de las raíces en el plano z son también las mismas. Lo único que cambia es que
ahora trabajamos con el círculo unidad estable en el plano z.
q0 + q1 z −1 + q2 z −2 q0 z 2 + q1 z 1 + q2
G c (z) = = (7.5.77)
1 − z −1 z(z − 1)
4(z − a)
1+K =0 (7.5.78)
z(z − 1)(z − 0.6)
es decir
Qm
|z + z i |
|G c (z)G(z)| = |K | ni=1
Q =1
j=1 |z + pj|
X
m X
n
6 G c (z)G(z) = 6 K+ 6 (z + z i ) − 6 (z + p j ) = (2q + 1)π
i=1 j=1
podremos determinar los valores de K y de a que hacen que el lugar de las raíces
pase por los polos p1,2 = 0.3 ± j0.66. Los argumentos para los polos son
β1 = 138.57o
β2 = 78.69o
β3 = 24.44o (7.5.79)
100
y(k) 90
(a)
80
70
60
50
40
30
20
10
0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)
1.8
y(k)
1.6
1.4
1.2 (b)
1
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30 35 40
Tiempo ciclos de muestreo)
Fig. 7.23: Respuesta del sistema del ejemplo 7.5.6: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
7.5. Métodos analíticos de diseño de controladores PID 309
e ( k )
u ( k )
y ( k )
r ( k )
K . T 1 +
- 1
-
T i 1 - z +
K . T d
- 1
1 - z )
y ( k )
T X
k−1
Td
u(k) = K [e(k) + e(i) + (e(k) − e(k − 1))] (7.5.83)
Ti i=0 T
KT 1 K Td
U (z) = [K + −1
+ (1 − z −1 )]E(z) (7.5.84)
Ti 1 − z T
si separamos los efectos del controlador PID teórico comentado tal y como se
muestra en la figura 7.24, se puede observar varios problemas.
El primer problema que se puede apreciar es que el error entre dos instantes
consecutivos (es decir la derivada del error) puede tomar valores muy grandes lo
que al multiplicar por la ganancia derivativa puede saturar el actuador (esto sucede
cuando hay un ruido importante en el sistema o cuando se aplica un escalón en la
entrada). Para evitar este problema, muchos controladores PID reales utilizan un
esquema de control en el que la ganancia derivativa se sitúa en el lazo de realimen-
tación. Esto tiene la ventaja de no experimentar variaciones bruscas que produzcan
la saturación del actuador.
Un segundo problema denominado saturación integral o en terminología an-
glosajona efecto windup se produce debido a que en sistemas lentos la integral del
error puede llegar a tomar valores muy grandes. Esto hace que la acción de control
integral tome un valor muy grande también, saturando el actuador durante mucho
tiempo. Para evitar este problema se utilizan esquemas de control que permiten la
desactivación del efecto integral cuando este alcanza un cierto valor.
310 7. Técnicas clásicas de control
Kvff(1-z-1)
+
Kaff(1-2z-1+z-2) +
Filtro Notch
r(k) e(k) + 1+n1z-1+n2z-2 u(k)
+ F. Banda + Kp
- muerta + + - 1+d1z-1+d2z-2
MI Ki y(k)
Kd(1-z-1)
1-z-1
Acción derivativa
Acción integral y(k)
Y (z) G c (z)G(z)
F(z) = = (7.6.2)
R(z) 1 + G c (z)G(z)
312 7. Técnicas clásicas de control
y(k)
(a)
(b)
Fig. 7.26: Estructura del control (a) y equivalente discreto del sistema (b).
F(z) F(z)
G c (z) = = (7.6.3)
G(z) − F(z)G(z) G(z)[1 − F(z)]
Esta desigualdad nos dice que, la diferencia entre los grados del denominador y del
numerador (en sistemas discretos esto indica el retardo del sistema) en la función
de transferencia en bucle cerrado del sistema F(z), debe de ser mayor o igual que
el retardo de proceso, para que el controlador sea realizable físicamente. De forma
simplificada, se puede decir que el retardo de modelo F(z), tiene que ser igual o
mayor que el retardo del proceso a controlar.
G c (z)G(z)
F(z) = (7.6.15)
1 + G c (z)G(z)
7.6. Diseño de reguladores por síntesis directa 315
1 F(z)
G c (z) = (7.6.16)
G(z) 1 − F(z)
( k ) ( k )
( k )
( k ) +
e
G c ( z ) u
G ( z ) y
Una forma de evitar las cancelaciones indeseadas con los polos y ceros ines-
tables (o críticamente estables) de G c G, consiste en hacer que estos polos y ceros
inestables aparezcan de forma explícita en F(z) y en 1 − F(z) de forma que can-
celen los que aparecen en el término 1/G(z) del controlador. De esta forma, los
polos y ceros del proceso no serán cancelados (lo que por otra parte no sería posi-
ble realizar de forma exacta con el proceso y sin embargo si es posible realizar en
316 7. Técnicas clásicas de control
Dg(z)N f (z)
G c (z) =
N g(z)[D f (z) − N f (z)]
Dge (z)Dgi (z)N ge (z)N f ∗ (z)
=
N ge (z)N gi (z)Dge (z)[D f (z) − N f (z)]∗
Dgi (z)N f ∗ (z)
= (7.6.19)
N gi (z)[D f (z) − N f (z)]∗
En la expresión 7.6.19 se aprecia que en el controlador se cancelan los polos
y ceros inestables del proceso. Por otra parte, si observamos la función de transfe-
rencia del sistema con controlador en cadena abierta, tenemos que
Dgi (z)N f ∗ (z) N ge (z)N gi (z)
G c (z)G(z) = ∗
N gi (z)[D f (z) − N f (z)] Dge (z)Dgi (z)
N f ∗ (z)N ge (z)
= (7.6.20)
[D f (z) − N f (z)]∗ Dge (z)
En esta expresión 7.6.20 se puede apreciar que en la función de transferencia en
cadena abierta del sistema no se han cancelado los polos y ceros inestables o críti-
camente estables del proceso como deseábamos.
Podemos resumir estas restricciones diciendo que, para que no se produzcan
cancelaciones entre los polos y ceros del regulador con los polos y ceros inestables
o críticamente estables del proceso, se tienen que verificar las siguiente restriccio-
nes:
Ejemplo 7.6.1: Sea un sistema cuyo equivalente discreto viene dado por la si-
guiente función de transferencia:
(z − 0.5)
G(z) = (7.6.23)
(z − 0.2)(z − 0.9)
y supongamos que se quiere diseñar un controlador de forma que los polos en
cadena cerrada del sistema estén situados en p1,2 = 0.3 ± j0.6 y que además tenga
un error en régimen permanente ante entrada escalón nulo.
De las posiciones de los polos podemos decir que la función de transferencia
F(z) debe de tener la siguiente forma:
N f (z) N f (z)
F(z) = = m 2 (7.6.24)
z m (z − 0.3 + j0.6)(z − 0.3 − j0.6) z (z − 0.6z + 0.45)
siendo z m una variable de ajuste, que como sabemos, no influye en la dinámica de
F(z).
Por otra parte y para que el sistema tenga error en régimen permanente nulo es
necesario introducir un polo en (z − 1) en la función de transferencia en cadena
abierta. Es decir
luego gr[N f (z)] ≤ m + 1. Por simplicidad tomaremos el menor grado m que nos
garantice una solución. Supongamos que m = 0, en este caso N f (z) ≤ 1, es decir
318 7. Técnicas clásicas de control
6
y(k) (a)
5
2
(b)
1
0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)
Fig. 7.28: Respuesta del sistema del ejemplo 7.6.1: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
b1 z −1 + . . . + bm z −m B(z −1 )
G(z) = = (7.6.34)
1 + a1 z −1 + . . . + am z −m A(z −1 )
Para una entrada escalón unitario r (k) = 1, k = 1, 2, . . . un sistema sin
retardo tendrá una respuesta con tiempo de establecimiento mínimo si (fig. 7.27):
1
R(z) =
1 − z −1
Y (z) = y(1)z −1 + y(2)z −2 + . . . + 1[z −m + z −(m+1) + . . .] (7.6.37)
Y (z)
F(z) = = p1 z −1 + p2 z −2 + . . . + pm z −m
R(z)
(7.6.38)
p1 z m−1 + p2 z m−2 + . . . + pm
= = P(z)
zm
donde
p1 = y(1)
p2 = y(2) − y(1) (7.6.39)
..
. (7.6.40)
pm = 1 − y(m − 1)
y
U (z)
= q0 + q1 z −1 + . . . + qm z −m = Q(z) (7.6.41)
R(z)
donde
q0 = u(0)
q1 = u(1) − u(0) (7.6.42)
..
. (7.6.43)
qm = u(m) − u(m − 1)
Y (z) G c (z)G(z)
F(z) = = (7.6.44)
R(z) 1 + G c (z)G(z)
y que buscamos determinar el controlador G c (z) que haga que la respuesta del
sistema tenga un tiempo de establecimiento mínimo y sea la descrita por los po-
linomios P(z) y Q(z). Tenemos que, al haber supuesto que la entrada al sistema
es un escalón unitario y que el error en regimen permanente ante dicha entrada se
debe de ser nulo, el valor en regimen permanente de la salida del sistema en lazo
7.6. Diseño de reguladores por síntesis directa 321
q1 = a1 q 0 p1 = b1 q0
q2 = a2 q 0 p2 = b2 q0
..
.
q m = am q 0 p m = bm q 0 (7.6.53)
1
q0 = = u(0) (7.6.54)
b1 + . . . + bm
Como se puede observar de 7.6.53 y 7.6.54 los parámetros del controlador
que nos da un tiempo de establecimiento mínimo y error en régimen permanente
cero para una entrada escalón se pueden calcular de una forma muy simple. Es
interesante observar que el valor inicial de la salida del controlador, u(0), depende
sólo de la suma de los parámetros b del proceso. Esta suma tiende a decrecer a
medida que el tiempo de muestreo es más pequeño, por lo que el valor de u(0)
aumenta cuanto menor es el periodo de muestreo (hay que tener en consideración
este efecto ya que puede llegar a saturar los actuadores).
Si introducimos los coeficientes 7.6.53 y 7.6.54 en la expresión del controlador
7.6.50, nos queda que
Q(z) q0 A(z −1 )
G c (z) = = (7.6.55)
1 − P(z) 1 − q0 B(z −1 )
Si comparamos esta expresión 7.6.55 con la función de transferencia del pro-
ceso 7.6.34, se puede observar que los ceros del controlador se cancelan con los
polos del proceso, quedando como función de transferencia del sistema en cadena
cerrada la expresión siguiente
G c (z)G(z)
F(z) =
1 + G c (z)G(z)
q0 A(z −1 ) B(z −1 )
1−q0 B(z −1 ) A(z −1 )
= q0 A(z −1 ) B(z −1 )
1 + 1−q −1 −1
0 B(z ) A(z )
−1
= q0 B(z )
q0 B(z)
=
zm
p1 z m−1 + . . . + pm
=
zm
= p1 z + . . . + pm z −m
−1
(7.6.56)
7.6. Diseño de reguladores por síntesis directa 323
que era la que se deseaba obtener. Como se puede observar un sistema con tiempo
de establecimiento mínimo tiene todos sus polos en el origen de coordenadas del
plano z.
En esta sección se ha visto una técnica directa de obtención del regulador para
estos sistemas de tiempo mínimo, pero también se podría haber obtenido el regula-
dor aplicando el método de síntesis directa visto en la sección anterior, para lo cual
habría que tener en cuenta que la función de transferencia en cadena cerrada es de
la forma F(z) = P(z) = p1 z+ z2
p2
y que el controlador debe de incluir un polo en
(z − 1) para anular el error en régimen permanente.
Ejemplo 7.6.2: Supongamos que se tiene un sistema con función de transferencia
(z − 0.5) z −1 − 0.5z −2 B(z −1 )
G(z) = = = (7.6.57)
(z − 0.2)(z − 0.9) 1 − 1.1z −1 + 0.18z −2 A(z −1 )
y que se desea diseñar un controlador de forma que la respuesta del sistema sea de
tiempo mínimo y con error en régimen permanente nulo. Como el sistema es de
orden dos, la respuesta del sistema se alcanzará como mínimo en dos periodos de
muestreo, luego la respuesta del sistema será un polinomio del tipo
q1 = a1 .q0 = −2.2
q2 = a2 .q0 = 0.36
p1 = b1 .q0 = 2
p2 = b2 .q0 = −1 (7.6.60)
y de 7.6.59 y 7.6.60 tenemos que la función de transferencia del regulador será
6
y(k)
5 (a)
2
(b)
1
0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)
Fig. 7.29: Respuesta del sistema del ejemplo 7.6.2: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
b1 z −1 + . . . + bm z −m
G(z) = z −d (7.6.63)
1 + a1 z −1 + . . . + am z −m
esta expresión puede verse como un caso particular de uno más general de la forma
b10 z −1 + . . . + bv0 z −v
G(z) = (7.6.64)
1 + a1 z −1 + . . . + av z −v
donde v = m + d y en el que los coeficientes de la expresión 7.6.64 son los
siguientes
am+1 = . . . = av = 0
b10 = b20 = . . . = bd0 = 0
0
bd+1 = b1
..
.
0
bd+m = bm (7.6.65)
Q(z) q0 + q1 z −1 + . . . + qm z −m
G c (z) = = (7.6.68)
1 − P(z) 1 − pd+1 z −1 − . . . − pm+d z −m+d
es decir,
q0 A(z −1 )
G c (z) = (7.6.69)
1 − q0 B(z −1 )z −d
y por tanto la función de transferencia resultante en cadena cerrada quedará de la
forma
F(z) = q0 B(z −1 )z −d
q0 B(z)
= (7.6.70)
z m+d
z −1 − 0.5z −2 B(z −1 )
G(z) = z −2 = (7.6.71)
1 − 1.1z −1 + 0.18z −2 A(z −1 )
y que se desea diseñar un controlador de forma que la respuesta del sistema sea
de tiempo mínimo y con error en régimen permanente nulo. Como el sistema es de
orden cuatro, la respuesta del sistema se alcanzará como mínimo en cuatro periodos
de muestreo, luego la respuesta del sistema será un polinomio del tipo
1
q0 = =2 (7.6.73)
b1 + b2 + b3 + b4
q1 = a1 .q0 = −2.2
q2 = a2 .q0 = 0.36
q3 = a3 .q0 = 0
q4 = a4 .q0 = 0
p1 = b1 .q0 = 0
p2 = b2 .q0 = 0
p3 = b3 .q0 = 2
p4 = b4 .q0 = −1 (7.6.74)
6
y(k)
(a)
5
2
(b)
1
0
0 10 20 30 40 50 60 70
Tiempo (ciclos de muestreo)
Fig. 7.30: Respuesta del sistema del ejemplo 7.6.3: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
Bibliografía
[3] G.F. Franklin, J.D. Powell and M. Workman, Digital Control of Dynamics
Systems, Addison Wesley, 1997.
r u x y
+ +
-
B
+ ∫ C
no se verá influido por la entrada u(t) al sistema. Como además en la forma ca-
nónica diagonal la variable xi tampoco tiene influencia de las otras variables de
estado nos encontramos que no resulta posible influir sobre el valor de dicha va-
riable de estado ni directamente (via entrada de control) ni indirectamente (via la
influencia de alguna otra variable de estado). En este caso diremos que es un modo
no controlable. Si algún modo del sistema es no controlable existirán estados del
sistema que no son alcanzables y el sistema es no controlable.
De forma similar, una columna Ci = 0 en la matriz C da como resultado
que dicho modo no sea observable en la salida del sistema. Mientras que si Ci es
distinto de cero tendremos un modo observable.
Estos conceptos definidos de forma intuitiva para un sistema en la forma canó-
nica diagonal, pueden ser generalizados como veremos a continuación.
Dado que este tipo de técnicas de control suele realizarse por computador y
que el tratamiento matemático del problema es más simple en el caso discreto que
en el continuo; se va a suponer que el sistema
donde
G = e AT
Z T
H = e Aτ Bdτ (8.2.3)
0
u(n − 1)
h i
u(n − 2)
x(n) − G n x(0) = H (8.2.6)
G H . . . G n−1 H ..
.
u(0)
Dado que H es una matriz n × 1 y que G es n × n, la matriz
h i
MC = H G H . . . G n−1 H (8.2.7)
rango(MC ) = n
Ejemplo 8.2.2: Supongamos un segundo sistema definido por las ecuaciones si-
guientes
x1 (k + 1) = −1 0 x1 (k) + 1 u(k) (8.2.14)
x2 (k + 1) 0 −2 x2 (k) 0
determinar la secuencia de entradas (u(0), u(1)) que hay que introducir al sistema
para que este pase del estado [0 0]T en el instante 0 al estado [2 0]T en el ciclo
2.
Solución:
De acuerdo con la ecuación 8.2.6 tenemos que
x (2)
1 − 1 0 x (0)
1 = 1 −1 + u(1) (8.2.15)
x2 (2) 0 4 x2 (0) 0 0 u(0)
y de aquí sustituyendo x1 (0), x2 (0), x1 (2), x2 (2) por los valores deseados del esta-
do inicial y final tendremos que
2 − 1 0 0 = 1 −1 + u(1) (8.2.16)
0 0 4 0 0 0 u(0)
2 1 −1 u(1)
= (8.2.17)
0 0 0 u(0)
es decir,
2 = u(1) − u(0) (8.2.18)
y para u(1) = 0, se tiene u(0)=-2. Como
1 −1
MC = (8.2.19)
0 0
existirán otros que sí son alcanzables desde ese estado. En el ejemplo que hemos
visto, el estado [2 0]T es alcanzable desde el estado inicial [0 0]T , sin embargo
el estado [2 1]T no sería alcanzable desde el estado [0 0]T puesto que no tene-
mos ninguna acción de control que nos permita cambiar el valor de la variable de
estado x2 .
donde G : n × n, H : n × r , x : n × 1, u : r × 1.
En este caso la matriz de controlabilidad MC será una matriz n × nr , es decir
h i
MC = H G H . . . G n−1 H (8.2.21)
donde G : n × n, H : n × 1, C : m × n , x : n × 1, u : 1 × 1, y : m × 1 y m ≤ n.
Recordando que la solución de la ecuación de estado para un sistema lineal de
tiempo discreto invariante era de la forma
X
n−1
n
x(n) = G x(0) + G n− j−1 H u( j)
j=0 (8.2.24)
= G n x(0) + G n−1 H u(0) + G n−2 H u(1) + . . . + H u(n − 1)
y(n) = C x(n)
X
n−1
= C G n x(0) + C G n− j−1 H u( j) (8.2.25)
j=0
y de aquí que
X
n−1
y(n) − C G n x(0) = C G n− j−1 H u( j)
j=0
u(n − 1) (8.2.26)
h i
u(n − 2)
= CH n−1
CG H . . . CG H ..
.
u(0)
8.2. Controlabilidad de un sistema 337
Dado que H es una matriz n × 1 y que G es n× n, que C es una matriz m × n,
la matriz de controlabilidad de la salida MC S = C H CG H . . . CG n−1 H
tendrá dimensiones m × n. En el sistema de ecuaciones 8.2.26 conocemos los es-
tados inicial y(0) y final y(n), y podemos calcular la matriz MC S . Para poder de-
terminar el vector de entradas de control se tiene que verificar que el rango de la
matriz MC S es m. A la matriz MC S se le denomina matriz de controlabilidad de la
salida.
rango(MC S ) = m
y, por tanto rg(Mc ) = 2. Esto se podía haber detectado ya que las filas de la
matriz C no son linealmente independientes. En este caso, los dos menores de Mc
338 8. Control de sistemas por realimentación de estado
son distintos de cero lo que implica que podemos controlar cualquier estado. Sin
embargo, en la matriz de controlabilidad de salida Mcs , el menor de y1 es −2 y el
de la salida y2 es cero. Por lo que la salida y1 será controlable e y2 será linealmente
dependiente de la primera. Esto significa que podremos situar libremente una salida
(y1 ), pero la otra (y2 ) estará en función de la primera.
Sistema
u + x y
B x C
+
^x
Observador
del
estado del sistema
donde G : n × n, H : n × 1, C : m × n , x : n × 1, u : 1 × 1, y : m × 1 y m ≤ n.
La solución de la ecuación de estado para un sistema lineal de tiempo discreto
e invariante era
X
n−1
n
x(n) = G x(0) + G n− j−1 H u( j) (8.3.3)
j=0
8.3. Observabilidad de un sistema 339
X
n−1
y(n) = C G n x(0) + C G n− j−1 H u( j) (8.3.4)
j=0
x(n) = Gx(n − 1)
y(n − 1) = C x(n − 1) (8.3.5)
y(0) = C x(0)
y(1) = C Gx(0)
..
.
y(n − 1) = C G n−1 x(0) (8.3.7)
340 8. Control de sistemas por realimentación de estado
y en forma matricial
y(0) C
y(1) CG
=
.. .. x(0) (8.3.8)
.
.
y(n − 1) C G n−1
T
A la matriz C C G . . . C G n−1 se le denomina matriz de observa-
bilidad, M O . Como G es una matriz n × n y C es m × n, la matriz M O =
T
C C G . . . C G n−1 tiene dimensión mn × n. Por lo tanto, para que el sis-
tema de ecuaciones tenga solución dicha matriz M O tiene que tener rango n.
x 0 (k + 1) = T −1 GT x 0 (k) + T −1 H u(k)
y(k) = C T x 0 (k) (8.4.2)
G 0 (k + 1) = T −1 GT
H 0 (k) = T −1 H
C 0 (k) = C T (8.4.3)
Supongamos que queremos controlar un cierto sistema, en el que todas las va-
riables de estado están disponibles (medibles o accesibles) para ser utilizadas en la
realimentación del estado del sistema.
Este esquema de control se muestra en la figura 8.3 hará que la ecuación carac-
terística del sistema realimentado tome la forma
(z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.1)
La elección de las posiciones deseadas de los polos se hace de forma que se
cumplan unas ciertas especificaciones de diseño. Esta técnica es aplicable sólo a
sistemas lineales invariantes en el tiempo. Veamos cómo podemos determinar el
valor de la matriz de ganancias que nos permite situar los polos del sistema reali-
mentado en el lugar deseado.
Esta técnica de control nos va a permitir situar los polos del sistema reali-
mentado en las posiciones que deseemos para que se cumplan ciertos requisitos
en cuanto a la respuesta dinámica del sistema. El mero hecho de poder situar los
polos en las posiciones que deseemos no nos garantiza que el sistema cumpla las
especificaciones de régimen permanente ya que esta técnica no permite modificar
las posiciones de los ceros del sistema por lo que posteriormente veremos como
ajustar la respuesta en régimen permanente del sistema.
r u x y
+ + -1
H z .I C
- +
Realimentación
del estado
donde G : n × n, H : n × 1, C : 1 × n , x : n × 1, u : 1 × 1 e y : 1 × 1.
Además, la señal de control al sistema viene dada por la siguiente expresión
por tanto,
(z I − G + H K )X (z) = H R(z) (8.6.7)
X(z) = (z I − G + H K )−1 H R(z) (8.6.8)
la salida tendrá la expresión
|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) (8.6.11)
En la expresión 8.6.11 lo único que no se conoce son los valores de los coe-
ficientes de la matriz K , pero igualando los coeficientes del término del lado iz-
quierdo a los de la parte derecha de la expresión es posible resolver el sistema.
La condición necesaria y suficiente para poder resolver este sistema es que el
rango de la matriz de controlabilidad de estado sea n, es decir, que el sistema sea
totalmente controlable. Además, es fácilmente demostrable que si el sistema es
totalmente controlable la matriz (z I − G + H K ) es no singular.
Solución:
Comprobemos en primer lugar que el sistema sea completamente controlable en
estado, para ello obtendremos la matriz de controlabilidad
h i 0 1
MC = H G H = (8.6.16)
1 −0.5
|z I − G + H K | = z 2 − z + 0.5 = 0 (8.6.18)
k1 = −0.5
k2 = −1.5
2.5
(b)
y(k) 2
1.5
(a)
1
0.5
−0.5
0 5 10 15 20 25 30 35 40 45 50
Tiempo (ciclos de muestreo)
Fig. 8.4: Respuesta del sistema del ejemplo 8.4: (a) sin realimentación y (b) siste-
ma realimentado
Veamos como se realiza este proceso. Para ello, supongamos que se tiene un
sistema con la siguiente representación de estado,
Sistema
r u x y
+ + -1
H z I C
- +
-1
T
x'
Realimentación
del estado
K'
u=-K'x'=-(KT)x'=-Kx
x1 (k + 1) = −0.5
0
+ u(k) 0 (8.6.40)
x2 (k + 1) 0 −1 1
x (k)
y(k) = [1 1] 1 (8.6.41)
x2 (k)
Solución:
Comprobemos en primer lugar que el sistema sea completamente controlable en
8.6. Control por realimentación de estado 351
z + 0.5
F(z) = C[z I − G]−1 H =
z2 + 1.5z + 0.5
y pasando de aquí a la forma canónica controlable tenemos que
0
x1 (k + 1) = 0 1 0
+ u(k) (8.6.43)
x20 (k + 1) −0.5 −1.5 1
0
x (k)
y(k) = [0 0.5] 1 (8.6.44)
x20 (k)
que tiene rango 2 luego será controlable. Diseñaremos en esta nueva representación
de estado las ganancias de la matriz de realimentación K 0 que sitúan los polos del
sistema en cadena cerrada en las posiciones que se desean. De acuerdo con la
ecuación 8.6.11 tenemos que
|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.46)
|z I − G 0 + H 0 K 0 | = z 2 − z + 0.5 = 0 (8.6.47)
k10 = 0
k20 = −2.5
r u x y
+ + -1
k0 H z .I C
- +
G
Planta
donde G : n × n, H : n × 1, C : 1 × n , x : n × 1, u : 1 × 1 e y : 1 × 1.
8.6. Control por realimentación de estado 353
La señal de control u(k) que se introduce al sistema viene dada por la siguiente
expresión
Solución:
Veamos primero si el sistema cumple la especificación respecto al error en régimen
permanente. La función de transferencia del sistema en bucle cerrado
Y (z)
F(z) = = C[z I − G + H K ]−1 H (8.6.56)
R(z)
desarrollando esta expresión tenemos
−1
h i z −1 0 1
F(z) = 1 0 = 2 (8.6.57)
0.5 z − 1 1 z − z + 0.5
= 2 (8.6.58)
Es decir, para una entrada unitaria la salida en régimen permanente del sistema
nos da el valor 2. Si queremos que la salida del sistema en régimen permanente
tenga valor 1, introducimos una ganancia k0 en el sistema con lo que la función de
transferencia en bucle cerrado quedará como
Y (z)
F(z) = = C[z I − G + H K ]−1 Hk0 (8.6.59)
R(z)
y la respuesta en régimen permanente será
estas dos técnicas que se han comentado. Esto pasa especialmente en sistemas de
orden bajo, donde los grados de libertad para elegir las posiciones de los polos en
cadena cerrada del sistema son limitados. Un caso típico donde se desea que la
salida del sistema siga a la entrada del mismo son los servosistemas. Si suponemos
un servosistema, en el que el sistema es de orden dos, únicamente disponemos de
dos posiciones de polos para ajustar. Si se ajustan las posiciones de los polos en
cadena cerrada para que la dinámica sea razonablemente rápida (como un sistema
de segundo orden con una pequeña sobreoscilación), elegiremos un par de polos
complejos conjugados. En este caso el tipo del sistema en cadena cerrada será cero,
por lo que probablemente no anulará el error en régimen permanente del sistema
ante entrada escalón y además ante entrada rampa se hará infinito. Si situásemos un
polo en el punto +1 del plano z (equivale a un integrador) en este caso anularíamos
el error en régimen permanente pues el sistema sería de tipo uno, pero entonces el
sistema se haría excesivamente lento lo que puede no ser deseable.
Si el sistema fuese de tercer orden, se podrían fijar las posiciones de los tres
polos de forma que: el tipo sea uno (con lo que el error en régimen permanente
ante una entrada en rampa se anularía) y tenga dos polos complejos conjugados
(que diesen una respuesta dinámica buena).
En el caso de que el orden del sistema no nos permita satisfacer las dos condi-
ciones de diseño simultáneamente, es posible elevar el tipo del sistema añadiendo
un integrador en la cadena principal del sistema (figura 8.7). Al añadir un integra-
dor al sistema, este aumenta el orden y el tipo del sistema. En definitiva hemos
añadido un grado de libertad más al sistema (una variable de estado adicional) que
hemos utilizado para poner un polo en el círculo unidad.
r + e + + u + x y
-1 v -1
z I kI H z I C
+ - +
-
G
Control Integral
Planta
Realimentación
de estado
K
x(k + 1) = G − H K Hki x(k) + r (k) 0
v(k + 1) −C 1 v(k) 1
h i x(k)
y(k) = C 0 (8.6.63)
v(k)
Solución: Veamos en primer lugar cual sería el error que se comete en régimen
permanente ante una entrada de tipo rampa para el sistema sin introducir el control
integral, y si es posible conseguir algún valor de ganancia k0 que anule dicho error.
8.6. Control por realimentación de estado 357
r + e + + u + x y
-1 v -1
z I kI H z I C
+ - +
-
G
Control Integral
Planta
Realimentación de estado
0 1 0
0
G = G − H K Hki
= −1 −0.5 ki
−C 1
−1 0 1
0 h i
0
H = 0 , C0 = 1 0 0
1
F 0 (z) = C 0 [z I − G 0 ]−1 H 0
−1
h i z −1 0 0
= 1 0 0 1 z + 0.5 −ki 0
1 0 z−1 1
ki
=
(z − 1)(z 2 + 0.5z − 1) + ki
y al igual que antes, haciendo el límite para t → ∞ en la expresión del error en
régimen permanente se obtiene que
|z I − G + H K | = z 2 − z + 0.5 = 0 (8.6.70)
como se puede observar tenemos dos ecuaciones y cuatro incógnitas, luego te-
nemos dos grados de libertad a la hora de elegir los coeficientes de la matriz de
ganancias de la realimentación. Si tomamos, por ejemplo, k12 = k21 = 1 entonces
360 8. Control de sistemas por realimentación de estado
tendremos que k22 = −10 y k11 = −0.25. Con lo que la matriz de realimentación
de estado será
−0.25 1
K =
1 −10
Ocurre con una cierta frecuencia que las variables de estado de un sistema
o una parte de ellas no son medibles (o accesibles). De hecho es frecuente que
únicamente la variable de salida del sistema sea medible, o que el sensor necesario
para medir una cierta variable tiene que desecharse por su alto coste económico,
o por otro tipo de razones. En todos estos casos resulta necesario estimar aquellas
variables de estado que no son medibles directamente. La estructura genérica de
un observador de estado responde al esquema mostrado en la figura 8.9.
Sistema
Observador
del
estado del sistema
^x(k)
Puesto que se está suponiendo que las variables de estado no son accesibles o
medibles, la única información que podemos utilizar para determinar el estado en
el que está el sistema son las entradas que se le suministran y las salidas con las que
responde. En el caso de que ninguna de las variables de estado sea medible nece-
sitaremos que el observador de estado estime todas ellas, a este tipo de observador
se le denomina observador de orden completo.
8.7. Diseño de observadores de estado 361
El tercer problema se debe a las perturbaciones a las que el sistema real está
sometido y que no son medibles. En esta situación y aunque las matrices
de sistema que incluimos en el observador sean las verdaderas, el efecto de
las perturbaciones haría que el estado que estima el observador y el real no
coincidan al cabo de un cierto tiempo.
Observador
del
estado del sistema
u(k) ^
y(k)
+ -1
H z I C
+
^
x(k)
Debemos tener en cuenta en el diseño algún mecanismo que nos permita mo-
dificar el estado estimado por el observador cuando el estado del observador no
coincida con el del sistema real. Puesto que el estado del sistema real no lo pode-
mos medir para compararlo con el estimado por el observador, lo que se hace es
comparar la salida estimada del sistema con la salida del sistema real y el error se
utiliza para modificar el estado tal y como se muestra en la figura 8.11. Es decir
introducimos una realimentación del error de estimación en el observador.
Para que sea posible diseñar un observador, un requisito previo imprescindible
es que se pueda estimar matemáticamente el estado en un cierto instante de tiempo.
Tal y como se vio cuando se introdujo el concepto de observabilidad de un sistema,
este es un requisito previo para que podamos diseñar un observador.
Definición 8.7.1: La condición necesaria y suficiente para poder observar las va-
riables de estado es que se verifique la condición de observabilidad del sistema.
x ( k )
y
( k )
u ( k ) y
( k )
+
x ( k )
+ +
H C
- 1
+ z I
+ -
( k )
K e
O b s e r v a d o r
S i s t e m a
u ( k ) x ( k ) y ( k )
( k )
H
- 1
C
+ z I
y ( k )
u ( k )
x ( k )
y ( k )
x ( k ) +
+ +
H C
- 1
+ z I
+ -
( k )
K e
O b s e r v a d o r
|z I − G + K e C| = 0 (8.7.8)
De la ecuación 8.7.8 se deduce que es necesario diseñar la ganancia de reali-
mentación en el observador K e de forma que la dinámica del mismo sea adecuada
para el sistema que estamos observando. Tendremos que diseñar esta ganancia del
observador de forma que la dinámica del mismo sea más rápida que la del sistema.
Si no se hace así, se tendrá un error muy importante entre los valores estimados y
los reales, lo que hará que la regulación posterior del sistema funcione mal.
|z I − G + K e C| = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.7.11)
Ejemplo 8.7.1: Supongamos el sistema definido por las siguientes ecuaciones
x1 (k + 1) = 0 1 0
+ u(k) (8.7.12)
x2 (k + 1) −1 −0.5 1
h i x (k)
y(k) = 1 0 1 (8.7.13)
x2 (k)
y se desea diseñar un observador de estado para este sistema, teniendo en cuenta
que se han ajustado los valores de las ganancias de la matriz K de realimentación de
estado para que los polos en cadena cerrada del sistema estén en p1 = z−0.5− j0.5
y p1 = z − 0.5 + j0.5.
Solución:
Comprobemos en primer lugar que el sistema sea completamente observable en
estado, para ello obtendremos la matriz de observabilidad
C 1 0
MO = = (8.7.14)
CG 0 1
que tiene rango 2, luego el sistema es observable. Dado que nos interesa que la
dinámica del error cometido por el observador sea lo más rápida posible, haremos
que los polos del observador estén situados en el origen (esta respuesta se conoce
como respuesta de tiempo mínimo, o en anglosajón dead-beat). Por lo tanto
|z I − G + K e C| = z 2 = 0 (8.7.15)
es decir
h i
z 0
− 0 1 ke1
+ 2
1 0 =z =0 (8.7.16)
0 z −1 −0.5 ke2
y de aquí obtenemos
z 2 + z(ke1 + 0.5) + (0.5ke1 + ke2 + 1) = z 2 = 0 (8.7.17)
e igualando los coeficientes obtendremos que ke1 = −0.5 y ke2 = −1.25
366 8. Control de sistemas por realimentación de estado
|z I − G + K e C| = 0 (8.7.23)
teniendo en cuenta ahora que la dinámica del error de estimación de estado come-
tido por el observador venía dada por
|z I − G + H K | . |z I − G + K e C| = 0 (8.7.38)
8.7. Diseño de observadores de estado 369
La expresión 8.7.38 nos dice que la ecuación característica del sistema con rea-
limentación de estado y observador es el producto de las ecuaciones características
del sistema realimentado y del observador de estado. Dicho en otras palabras, que
son independientes, lo que permite que se diseñen de forma independiente y pos-
teriormente sean combinados. Hay que tener en cuenta que la dinámica global del
sistema se complica puesto que ahora además de los polos del sistema realimenta-
do tendremos los que añade el observador de estado. Para que estos no influyan en
la dinámica del sistema deben amortigüarse rápidamente, es decir deben de estar
situados próximos al origen o en él si se desea que el observador elimine el error de
estimación rápidamente de forma que no influya de forma sustancial en la dinámica
global del sistema.
Se diseñará en primer lugar la ganancia de realimentación de estado y en fun-
ción de donde se hayan situado los polos del sistema realimentado se determinarán
unas posiciones adecuadas para el observador. Por tanto el diseño se realizará en
dos pasos.
S i s t e m a
x ( k )
u ( k ) x ( k ) y ( k ) =
r ( k )
+
+
H
- 1
C
+ z I
x ( k )
u ( k )
x ( k )
x ( k )
O b s e a d o
r v r
e d i d o
r u c
x ( k )
de forma que
x 0 (k) = xn (k)
y0 (k) = xm (k + 1) − G mm xm (k) − Hm u(k) (8.7.46)
0
G = G nn
0 0
H u (k) = G nm xm (k) + Hn u(k)
C 0 = G mn
Si para el sistema 8.7.44 un observador de estado tiene la forma 8.7.21, enton-
ces
x̂ 0 (k + 1) = (G 0 − K e C 0 ) x̂ 0 (k) + H 0 u0 (k) + K e y0 (k) (8.7.47)
sustituyendo aquí las matrices y vectores por las expresiones completas 8.7.46 nos
queda que el observador para la parte no medible del sistema tiene la siguiente
ecuación
x̂n (k + 1) = (G nn − K e G mn ) x̂n (k) + G nm xm (k) + Hn u(k)
+K e [xm (k + 1) − G mm xm (k) − Hm u(k)] (8.7.48)
y en el diseño este observador de orden mínimo, tendremos que ajustar la matriz
K e de forma que los polos de la ecuación característica estén en unas posiciones
determinadas por
|z I − (G nn − K e G mn )| = 0 (8.7.49)
Solución:
Comprobemos en primer lugar que el sistema sea completamente observable, para
ello obtendremos la matriz de observabilidad
C 1 0
MO = = (8.7.52)
CG 1 0.1
372 8. Control de sistemas por realimentación de estado
que tiene rango 2, luego es observable. Como se ha indicado que hay una variable
de estado medible y otra no, las dimensiones de las submatrices del estado no
medible y de los medibles son: G nn : 1 × 1 y G mm : 1 × 1. Estas submatrices son
G mm = 1, G mn = 0.1, G nm = 0, G nn = 1
|z I − (G nn − K e G mn )| = z = 0 (8.7.53)
z − (1 − 0, 1ke ) = z = 0 (8.7.54)
donde:
Supondremos además que E[v1 v2T ] = 0. Es decir, los ruidos son indepen-
dientes.
( k )
( k )
S i s t e m a
u ( k ) x ( k )
y ( k )
+
+
H
- 1 C
+ z I
y ( k )
x ( k )
u ( k )
y ( k )
x ( k ) +
+ +
H C
- 1
+ z I
+ -
( k )
K e
O b s e r v a d o r
E[w(k + 1)w T (k + 1)] = E[(v1 (k) − K e (k)v2 (k))(v1 (k) − K e (k)v2 (k))T ]
= K e (k)E[v2 (k)v2T (k)]K eT (k) − E[v1 (k)v2T (k)K eT (k)]
−E[K e (k)v2 (k)v1T (k)] + E[v1 (k)v1T (k)]
= K e (k)E[v2 (k)v2T (k)]K eT (k) + E[v1 (k)v1T (k)]
= K e (k)R2 K eT (k) + R1 (8.8.7)
Si aplicamos 8.8.6 a la expresión 8.8.5 nos queda que el valor medio del error
de reconstrucción tiene la siguiente expresión
Observación:
Decir que P(k) es mínimo quiere decir que la forma cuadrática α T P(k)α (valor
escalar) es mínima, donde α es un vector n × 1 arbitrario.
376 8. Control de sistemas por realimentación de estado
P(k + 1) = G P(k)G T + R1
− G P(k)C T × (R2 + C P(k)C T )−1 C P(k)G T (8.8.15)
Esta expresión 8.8.15 es una ecuación de Riccati. Como se puede observar el
valor de la ganancia K e (k) que minimiza la varianza del error de reconstrucción no
depende de α. La matriz de covarianzas del error de reconstrucción en el instante
de tiempo cero (dado que el error de reconstrucción en el instante inicial era cero
por la forma en que habíamos elegido la estimación inicial) será
P0 = E[ x̃(0) − x̃(0)T ]
= E[(x(0) − m0 )(x(0) − m0 )T ]
= P0 (8.8.16)
A las expresiones 8.8.3, 8.8.14 y 8.8.15 se las conoce como filtro de Kalman.
8.8. Observador óptimo del estado 377
las ecuaciones del observador óptimo del estado (filtro de Kalman) son:
Bibliografía
9.1. Introducción
ẋ = f (t, x, u)
Esta función tiene dos partes, la primera que es el coste terminal, es decir, que
valora el estado final del sistema y la segunda parte que valora el estado del sistema
x y el control u a lo largo de la trayectoria.
380 9. Control óptimo
Ventajas y desventajas:
Entre las ventajas que expresa este índice tenemos:
Obliga a anular el error para que el índice J sea mínimo.
Es fácil de implementar en computador.
Como desventaja más significativa tenemos hay que señalar que:
El error cuadrático pondera más los errores grandes que los pequeños.
Por tanto, cuando el sistema tiene errores grandes converge rápidamen-
te a una banda con errores pequeños. Pero una vez que se encuentra en
esa banda oscila mucho y le cuesta disminuir el error.
ITSE Integral del tiempo por el error cuadrático (Integral Time Squared Error).
Minimiza el error cuadrático multiplicado por el tiempo.
Para sistemas continuos:
Z ∞)
J = τ e2 (τ )dτ
0
Ventajas y desventajas:
Entre las ventajas de este índice resalta que:
9.2. Funciones de coste 381
IAE Integral del valor absoluto del error (Integral Absolute Error)
Para sistemas continuos:
Z ∞
J = |e(τ )|dτ
0
Ventajas y desventajas:
Entre las ventajas podemos destacar:
En general el IAE es más rápido que el ISE si nos encontramos cerca del
óptimo, pero el ISE converge más rápido si estamos lejos.
1X T
N
1 T
J = x N Sx N + [x Qxk + ukT Ruk ] (9.2.2)
2 2 k=0 k
382 9. Control óptimo
Para poder optimizar el índice debe ser convergente, por tanto, el sistema debe
ser estable. Las matrices S (que pondera el valor final) y Q (error cuadrático del
estado) deben ser hermíticas y definidas positivas o semidefinidas positivas. La
matriz R (matriz de energía) debe ser definida estrictamente positiva. Con estos
condicionantes podemos decir que si J es convergente, tenderá a un mínimo.
donde φ(N , x N ) es una función del estado final, L k (xk , uk ) es una función que
pondera la energía y el error de seguimiento (comparar con 9.2.2), [i, N ] es el
intervalo de interés.
El problema de control óptimo consiste en encontrar la señal de control u∗k en
el intervalo [i, N ] que hace que la trayectoria de xk haga mínimo el coste J .
Para encontrar la secuencia óptima, consideremos la función de coste aumen-
tada
X
N
0
J = φ(N , x N ) + [L k (xk , uk ) + λk+1
T
( f k (xk , uk ) − xk+1 )] (9.3.3)
k=i
1 Nótese que en este capítulo se ha cambiado la notación por simplicidad. En concreto la notación
x(k) da paso a la notación xk .
9.3. El problema general de control óptimo (discreto) 383
Ecuación de estacionariedad
T
∂Hk ∂ fk ∂ Lk
0= = λk+1 + (9.3.9)
∂ uk ∂ uk ∂ uk
Condiciones de contorno
T !T
∂ Li ∂ fi
+ λi+1 d xi = 0
∂ xi ∂ xi
T (9.3.10)
∂φ
− λN d xN = 0
∂ xN
Solución:
a) Hamiltoniano:
1
Hk (xk , u k ) = L k (xk , u k ) + λk+1
T
f k (xk , u k ) = u 2k + λk+1 (xk u k + 1)
2
Ecuación de estado:
∂Hk
xk+1 = = xk u k + 1
∂λk+1
Ecuación de coestado:
∂Hk
λk = = λk+1 u k
∂ xk
Condición de estacionariedad:
∂Hk
0= = u k + λk+1 xk ⇒ u k = −λk+1 xk
∂u k
Por tanto, la ecuación de estado queda
y la de coestado
λk = −λ2k+1 xk
b) Si conocemos λ2 ,
λ1 = −λ22 x1 = −λ22 (−λ1 x02 + 1) = λ22 λ1 x02 − λ22 ⇒ λ1 (1 − λ22 x02 ) = −λ22
λ22
λ1 =
λ22 x0 − 1
−λ2
λ0 = −λ21 x0 = − 2 2 x0
λ2 x 0 − 1
Vamos a expresar x2 en términos de λ2 y x0 :
2
λ22
x2 = −λ2 x12 +1= −λ2 (−λ1 x02 2
+ 1) + 1 = −λ2 − 2
x +1 +1
λ22 x0 − 1 0
c) Si x0 = 1
λ42 − 2λ22 − λ2 + 1 = 0
9.3. El problema general de control óptimo (discreto) 385
λ21 = 1.49
λ = 0.52
22
⇒
λ23 = −1 + 0.51 j
λ23 = −1 − 0.51 j
(Los complejos no se consideran, porque no corresponden a soluciones reales).
Obtención de los vectores de estado x2 , x1 y x0 :
Como xk+1 = −λk+1 xk2 + 1, se obtiene
Para λ2 = 0.52,
2
λ2 λ2
λ1 = 2 2 = −0.33 ⇒ λ0 = − 2 2 = −0.11
λ2 − 1 λ2 − 1
386 9. Control óptimo
λk = Q k xk + G kT λk+1 (9.4.6)
y la ley de control es
uk = −Rk−1 HkT λk+1
Como el estado final x N es libre d x N 6 = 0. Por tanto la condición de contorno
9.3.10 queda de la forma
∂φ
λN =
∂ xN
Como φ = 12 x NT SN x N entonces
λ N = SN x N
Sk xk = Q k xk + G kT Sk+1 xk+1
El control óptimo es
Esta expresión se puede operar para reescribirla de una forma mas satisfactoria,
obteniendo la llamada ganancia de Kalman
con
uk = −K k xk
Solución:
1) Modelo:
2) Ley de control:
u k = −K k xk
3) Función de coste:
N −1
1 T 1X T
J = x N SN x N + (x Qxk + u kT Ru k )
2 2 k=0 k
X
4
J = 5x52 − (xk2 + u 2k ) ⇒ S5 = 10, Q = −2, R = −2
k=0
S4
S3 = 2 S4 1 − − 1 = −5.11
S4 − 2
S3
S2 = 2 S3 1 − − 1 = −4.88
S3 − 2
S2
S1 = 2 S2 1 − − 1 = −4.84
S2 − 2
S1
S0 = 2 S1 1 − − 1 = −4.83
S1 − 2
2Sk+1
K k = (R + H T Sk+1 H )−1 H T Sk+1 G =
Sk+1 − 2
De donde
u k = −K k xk
1
J∗ = x0 S0 x0
2
390 9. Control óptimo
Este caso corresponde a hacer tender N a infinito en el caso anterior. Por tanto, la
solución corresponderá a calcular la matriz de Riccati Sk y hacer tender k hacia
infinito. En caso de que sea convergente se tendrá S = Sk = Sk+1 , con lo que la
ecuación de Riccati, tendrá la forma
Ejemplo 9.4.2 (Control óptimo discreto - Riccati): Dado el sistema discreto x(k+
1) = Gx(k) + H u(k), con G = 2, H = 1 y la función de coste
N −1
1 2 1X 2
JN = x N + x + 0.1u 2k
2 2 k=1 k
Solución:
a) det (z I − G) = 0 ⇒ z − 2 = 0 ⇒ z = 2
Como el polinomio característico del sistema en bucle abierto tiene un cero en z=2,
es decir, fuera del círculo unidad, el sistema es inestable.
b) La fórmula de Riccati dice que
S = G T [S − S H (R + H T S H )−1 H T S]G + Q
9.5. Control óptimo en tiempo continuo 391
La ganancia es
K k = (R + H T Sk+1 H )−1 H T Sk+1 G
que, en el caso estacionario queda
K = (R + H T S H )−1 H T SG
Sustituyendo G = 2, H = 1 se tiene:
Por tanto, √ (
1.3 ± 1.32 + 0.4 1.37
S= =
2 −0.07
La ganancia es
(
−1 2S 1.86
K = (0.1 + s) 2S = =
0.1 + S −4.67
9(x(T ), T ) = 0
392 9. Control óptimo
Por ejemplo, si se desea que las variables de estado (x1 , x2 ) de un sistema tomen el
valor final (x1 f , x2 f ), entonces la restricción de estado final debe ser
x (T ) − x
9(x(T ), T ) = 1 1f
x2 (T ) − x2 f
φ((x1 (T ) − x1 f )2 + (x2 (T ) − x2 f )2 )
x(t)
.
x(T)dT
dx(T)
δ x(T)
x(t)
x(t)+dx(t)
dT
to T T+dT
Ecuación de estado
∂H
ẋ = = f (x, u, t)
∂λ
Ecuación de coestado
∂H ∂ fT ∂L
−λ̇ = = λ+
∂x ∂x ∂x
394 9. Control óptimo
Condición de estacionariedad
∂H ∂L ∂ fT
0= = + λ
∂u ∂u ∂u
Condiciones de contorno
Solución:
Consideremos el sistema q̇ = f (q, u), donde q es el vector de coordenadas ge-
neralizadas, y q̇ = u es el vector de velocidades generalizadas. El principio de
Hamilton nos dice que hay que minimizar la función de coste
Z T
J = L(q, u)dt
0
∂H
−λ̇ =
∂q
que son conocidas como ecuaciones de Hamilton del movimiento. Por tanto, en el
problema de control óptimo, las ecuaciones de estado y coestado son una generali-
zación de las ecuaciones de Hamilton del movimiento.
Solución:
Sustituyendo valores en la función de coste, resulta
Z tf
1
J = (x 2 − ẋ 2 )dt
2 0
∂H
0= = Ru + B T λ ⇒ u = −R−1 B T λ
∂u
− Ṡ = AT S + S A − SB R−1 B T S + Q (9.6.1)
Ejemplo 9.6.1: Determinar la señal de control óptima u ∗ (t) que debe aplicarse al
sistema de ecuación de estado ẋ = −x + u para que minimice la función de coste
Z 1
J = (x 2 + u 2 )dt,
0
Solución:
El Hamiltoniano es
H(x, u, λ, t) = x 2 + u 2 + λ(−x + u)
La condición de estacionariedad es
∂H
= 0 ⇒ 2u + λ = 0 ⇒ u = −λ/2
∂u
Sustituyendo en el Hamiltoniano la variable de control hallada que resulta ser
óptima, resulta:
∗ 2 λ2 λ λ2 λ
H =x + + λ −x − = x 2 − λx − = −x −
4 2 4 2
La variable de estado óptima se determina por resolución del sistema de ecua-
ciones:
398 9. Control óptimo
Ecuación de estado:
λ2
∂H ∂(x 2 − λx − 4
)
ẋ = =
∂λ ∂λ
Ecuación de coestado
λ2
∂H ∂(x 2 − λx − 4
)
λ̇ = =− = −2x + λ
∂x ∂x
De esta forma queda
λ
ẋ = −x −
2
λ̇ = −2x + λ
Derivando ẋ y sustituyendo λ̇, queda
λ̇ 1
ẍ = −ẋ − = −ẋ − (−2x + λ)
2 2
λ
ẍ = −ẋ + x −
2
λ
ẍ + ẋ − x =
2
λ λ
ẍ + (−x − ) − x =
2 2
ẍ − 2x = λ
√ √
La variable de estado óptima es x(t) = k1 e− 2t + k2 e 2t Teniendo en cuenta las
condiciones inicial y final impuestas, se obtiene
(
t =0→ k1 + k2 = 0
√ √
t = 1 → k1 e− 2 + k2 e 2
=1
1
k1 = −√2 √
e +e 2
1
k2 = √ √
e 2 + e− 2
Por consiguiente
1 √ 1 √ √
x(t) = √ √ (e
2t
+ e−2t
)=
√ sinh( 2t)
e 2+ e− 2 sinh 2
1 √ −√2t √ √
λ(t) = √ [(1 − 2)e + (1 + 2)e 2t ]
sinh 2
La señal de control óptima es
λ 1 √ √ √ √
u ∗ (t) = − = √ [(1 − 2)e 2t + (1 + 2)e− 2t ]
2 2 sinh 2
9.6. Regulador lineal cuadrático (LQR) continuo 399
Solución:
Empleando el método del regulador lineal óptimo y siendo
0 1 h i
A= 0 ; Q = 4 0 ;
√ ; B= R= 1
0 − 5 1 0 0
AT S + S A − SB R−1 B T S + Q = 0
400 9. Control óptimo
0 0 s11 s12 s11
+
s12 0 1
√ √ +
1 − 5 s21 s22 s21 s22 0 − 5
s s 0 h ih i s s12 4 0
+ 11 12 1 0 1 11 − =0
s21 s22 1 s21 s22 0 0
Desarrollando e igualando términos se obtiene el sistema
s2 = 4
12 √
s11 − 5s12 − s12 s22 = 0
2s − 2√5s − s 2 = 0
12 22 22
Para que la matriz S sea definida positiva es necesario elegir los valores
√
s11 = 6, s12 = 2, s22 = 3 − 5
Por consiguiente
S= 6 2
√
2 (3 − 5)
La señal de control óptima es
h ih i 6 2
u∗ (t) = −R−1 B T Sx(t) = − 1 0 1 √
x(t) =
2 (3 − 5)
√ √
= −[2 (3 − 5)]x(t) = −2x1 (t) − (3 − 5)x2 (t).
1 1 6 2
J = x T (0)Sx(0) = x T (0) √
x(0) =
2 2 2 (3 − 5)
1 √
= [6x12 (0) + 4x1 (0)x2 (0) + (3 − 5x22 (0)]
2
1
Si x(0) = , entonces
1
1 √
J ∗ = (6 + 4 + (3 − 5)) = 5.38
2
Ejemplo 9.6.3 (Optimización continua lineal.): Sea el sistema lineal
0 1 0
ẋ = x + u,
0 0 1
9.6. Regulador lineal cuadrático (LQR) continuo 401
Solución:
La ecuación de estado es
0 1 0
ẋ = x + ,
0 0 1
y la función de coste
Z ∞ h i
J = x1 x2 0 − 2 x1 + [1]u 2 dt
0 −2 − 1 x2
La matriz Q es
0−2
−2 − 1
y R es 1.
Aplicamos la ecuación de Riccati para estado estacionario.
AT S + S A − SB R−1 B T S + Q = 0
0 0 s11 s12 + s11 s12 0 1 +
1 0 s12 s22 s12 s22 0 0
h i h i s11 s12 0 −2 0 0
+ s11 s12 0
1 0 1 + =
s12 s22 1 s12 s22 −2 −1 0 0
Simplificando,
h i 0 −2 0 0
0 0 0 s11 s12
+ + s12 s22 + =
s11 s12 0 s12 s22 −2 −1 0 0
es decir
0 s11 +
2
s12
s12 s22 0 −2 0 0
+ =
s11 2s12 s12 s22 2
s12 −2 −1 0 0
402 9. Control óptimo
De aquí, se deduce 2
s12 =0
s11 + s12 s22 − 2 = 0
2
2s12 + s22 −1=0
s12 = 0
s11 = 2
s22 = 1
2 0
S=
0 1
La señal de control óptima es
h
i 2 0 h i
u∗ = −R−1 B T Sx(t) = −1 0 1 x(t) = − 0 1 x(t)
0 1
Solución:
Las ecuaciones de estado del sistema son
(
ẋ1 = x2
ẋ2 = −x2 + u
AT S + S A − SB R−1 B T S + Q = 0
y la función de coste
Z ∞ h i 0 1
1 x1 + 0.1 u 2 dt
J =
2 x1 x2 |{z}
0 0 −1 x2 R
| {z }
Q
Simplificando,
0 s11 − s12 2
s12 s12 s22 1 0 0 0
− 0.1 + =
s11 − s12 2s12 − 2s22 s12 s22 2
s22 0 1 0 0
Igualando coeficientes,
2
−0.1s12 +1=0
s11 − s12 − 0.1s12 s22 = 0
2
2s12 − 2s22 − 0.1s22 +1=0
s11 = 4.16
s12 = 3.16
s22 = 3.16
Por tanto,
4.16 3.16
S=
3.16 3.16
La señal de control óptima es
h i 4.16 3.16
u ∗ (t) = −K x(t) = −R −1 B T Sx(t) = −0.1 0 1 x(t)
3.16 3.16
ψ(x(T ), T ) = 0
H∗ (x ∗ , u∗ , λ∗ , t) ≤ H(x ∗ , u, λ∗ , t)
x1 (T ) = 0, x2 (T ) = 0 (9.7.3)
406 9. Control óptimo
que minimiza el tiempo, por esta razón, el control realizado en este ejemplo es un
control en tiempo mínimo.
Solución:
El Hamiltoniano es
H = |u| + k + λ1 x2 + λ2 u (9.7.5)
Como |u(t)| < 1; el Hamiltoniano será mínimo cuando
(
u ∗ (t) = −1, si λ∗2 (t) > 0
(9.7.6)
u ∗ (t) = +1, si λ∗2 (t) < 0
por este motivo, a este tipo de control se le denomina Bang-Bang, ya que pasa de
un valor extremo al otro.
Las ecuaciones de coestado son
e integrando se obtiene
donde c1 y c2 son constantes. Como λ∗2 es una función lineal de t que cambia a lo
sumo una vez en 0 ≤ t ≤ T , el control óptimo debe tomar una de las siguientes
formas:
+ 1, 0 ≤ t ≤ T
− 1, 0 ≤ t ≤ T
(9.7.9)
+ 1, 0 ≤ t ≤ t ; −1, t ≤ t ≤ T
1 1
− 1, 0 ≤ t ≤ t1 ; +1, t1 ≤ t ≤ T
Integrando las ecuaciones de estado con u = ±1 se obtiene
x = ±1t2 + c t + c
1 3 4
2 (9.7.10)
x2 = ±t + c3
Eliminando t se obtiene
1
x1 (t) = x22 (t) + c5 , cuando u ∗ = +1
2 (9.7.11)
x = − 1 x 2 (t) + c , cuando u ∗ = −1
1 6
2 2
9.7. Principio del mínimo de Pontriaguin 407
x2 C5 =0 C6 =0
x2
x1 x1
u* = -1
x1
u* =+1
x0
P
x2
Q
x0
u* = -1
O x1
u* =+1
S
Bibliografía
[5] F.L. Lewis, Optimal Control, John Wiley and Sons, 1986.
10. CONTROL DE SISTEMAS NO LINEALES
v
L y(t)
Tª
r(t)
Horno Cámara
de gas
r(t) y(t)
G(s)e-sT
Fig. 10.2: Esquema de control con a) el retardo dentro del bucle, y b) fuera del
bucle
r(t) + + y(t)
R(s) G(s)e-sT
- -
G(s)(1-e-sT)
Fig. 10.3: Esquema del predictor de Smith. El término G(s)(1 − e−sT ) predice la
salida
Ejemplo 10.2.1: Consideremos el sistema en bucle cerrado que tiene como fun-
ción de transferencia en bucle abierto
1
G(s) =
s+1
con un retardo de 1.5 y con un regulador proporcional de valor 2.3. En este caso
el controlador es proporcional y lo que nos interesa es comprobar cuál es el efecto
del predictor de Smith.
Solución:
r(t) + + y(t) + 1
2.3 (1/(s+1))e-sT 2.3 e-1.5s
- - - s+1
(1/(s+1))(1-e-sT)
a) b)
En la figura 10.4 se puede ver el sistema con retardo en bucle cerrado con y sin
predictor de Smith. En la figura10.6 se muestra a) el esquema de Simulink y en
b) se puede apreciar la pequeña diferencia en cuanto al comportamiento de ambos
sistemas ante entrada escalón.
412 10. Control de sistemas no lineales
2.3
s+1
Step Transfer Fcn Transport
Delay
Scope
1
2.3
s+1
Gain Transfer Fcn1 Transport
Delay1
1
s+1
Transfer Fcn2
Transport
Delay2
Fig. 10.5: Diagrama de Simulink del sistema con retardo y del sistema con retardo
y predictor de Smith
1.6
1.2
1
Con predictor
de Smith
0.8
0.6
0.4
0.2
−0.2
0 1 2 3 4 5 6 7 8 9 10
Fig. 10.6: Respuesta escalón del sistema con retardo y del sistema con retardo y
predictor de Smith
e−2s
G(s) =
s+1
Vamos a construir el predictor de Smith de forma que el tiempo de establecimiento
sea a lo sumo de 3 seg.
Solución:
Para ello vamos a aplicar la técnica de asignamiento de polos. Como el sistema
10.2. Predictor de Smith 413
Pc (s) = s 2 + 8s + 20
Esto significa que el polinomio característico del sistema R(s)(1/(s + 1)) al cerrar
el bucle es
1 + R(s)(1/(s + 1))
Si consideramos un controlador de tipo PI
p1 s + p0
R(s) =
s
tendremos la ecuación
(s + 1)s + ( p1 s + p0 ) = s 2 + 8s + 20
7s+20 1
s s+1
Step Transfer Fcn3 Transfer Fcn1 Transport Scope
Delay
1
s+1
Transfer Fcn2
Transport
Delay1
Fig. 10.7: Diagrama de Simulink del sistema con retardo y predictor de Smith
414 10. Control de sistemas no lineales
Respuesta escalon
1.4
1.2
0.8
0.6
0.4
0.2
0
0 5 10 15
Fig. 10.8: Respuesta escalón del sistema con retardo y predictor de Smith
+
PID NLineal
-
?
Lineal
u(t)
A(h)
a h
0.8
0.6
h(t)
0.4
0.2
0 1 2 3 4 5 6 7 8 9 10
tiempo (seg)
Convirtiéndose el modelo en
h̃˙ + α h̃ = 0 (10.3.8)
que también verifica h̃(t) → 0 para t → ∞.
Las ideas del ejemplo anterior sobre linealización por realimentación pueden
ser aplicadas a clases enteras de sistemas no lineales descritos en forma canónica
controlable.
Un sistema no-lineal se puede escribir en forma canónica controlable si las
no-linealidades están concentradas en la última ecuación:
1
ẋn = f (x) + b(x)u(t) = f (x) + b(x) [v(t) − f (x)] (10.3.12)
b(x)
que es lineal en la nueva entrada v(t) y el estado x(t). ¿Cómo elegir v(t)? Si
consideramos v(t) = −a0 x − a1 ẋ − . . . − an−1 x (n−1) , y conociendo que ẋn = x (n)
(enésima derivada del estado x(t)), entonces
Si los polos de 10.3.14 son estables, la dinámica del sistema tendrá respuesta de
tipo exponencial estable (para t → ∞ se tiene x(t) → 0).
ẋ = f (x, u)
(10.4.1)
y = h(x)
Si y = x1 , entonces
La relación entrada-salida es
Si elegimos
1
u= (v − f 1 ) (10.4.6)
x2 + 1
entonces
1
ÿ = (x2 + 1)u + f 1 (x) = (x2 + 1) (v − f 1 ) + f 1 = v (10.4.7)
x2 + 1
es decir el sistema viene dado por ÿ = v, que es lineal en entrada-salida.
Para el diseño del controlador de seguimiento
ë + k2 ė + k1 e = 0 (10.4.9)
v = ÿd − k1 e − k2 ė (10.4.10)
la expresión de ÿ será
ÿ = ÿd − k1 e − k2 ė (10.4.11)
Notas:
El sistema es de orden 3.
Existe parte de la dinámica del sistema (en el ejemplo, de orden 3-2=1) que
no es observable con la linealización entrada-salida.
ẋ3 = x1 −2 +u
1
ẋ3 = x12 + (v − f 1 ) (10.4.12)
x2 + 1
1
ẋ3 = x12 + ( ÿd − k1 e − k2 ė − f 1 )
x2 + 1
y(t) = x1 (t)
√
ẏ(t) = ẋ1 (t) = x14 (t)x2 (t) + 2 (10.4.14)
ÿ(t) = ẍ1 (t) = 4x13 (t)ẋ1 (t)x2 (t) + x14 (t)ẋ14 (t)ẋ2 (t)
Sustituyendo el valor de ẋ1 y ẋ2 se tiene
h √i
ÿ(t) = 4x13 (t) x14 (t)x2 (t) + t x2 (t) + x14 (t) [x1 sen x2 (t) + u(t)]
es decir
√
ÿ(t) = 4x17 (t)x2 (t) + 4x13 (t)x2 (t) 2 + x15 (t) sen x2 (t) + x14 (t)u(t)
Si elegimos
1
u(t) = (v − f (t)
x14 (t)
entonces
1
ÿ(t) = (t) + x14 t) (v − f (t)
x1 (t)
4
Como queremos que la respuesta del sistema sea la de un sistema de segundo orden,
y denominando e(t) al error de seguimiento entre la salida del sistema y la salida
deseada, tendremos que e(t) = y(t) − yd (t)
)
ÿ(t) = v(t)
⇒ v(t) = ë(t) + ÿd (t)
ë(t) = ÿ(t) − ÿd (t)
dado que se desea que la respuesta sea de segundo orden, tendrá una ecuación de
la forma
ë(t) + K 1 ė(t) + K 2 e(t)
y la expresión de v será
v(t) = ë(t) + ÿd (t)
Como queremos que ζ = 0.7 y ωn = 1
s 2 + K 1 s + K 2 = s 2 + 2ζ ωn s + ωn2
10.4. Linealización de entrada/salida 421
Por tanto
ωn2 = K 2 = 1 ⇒ K 2 = 1
2ζ ωn = K 1 ⇒ 2 × 0.7 × 1 = 1.4 = K 1
La función v(t) es
(s 2 − K 1 s − K 2 Y (s)) = (s 2 − K 1 s − K 2 Yd (s))
Y (s)
=1
Yd (s)
Como E(s) = Y (s) − Yd (s) se tiene
luego
v(t) = ë(t) + ÿd (t)
ë(t) + 1.4ė(t) + e(t) = 0
Por tanto,
v(t) = ÿd (t) − 1.4ė(t) − e(t)
422 10. Control de sistemas no lineales
.. Y(s)=V(s)/s2
y
d
s2
.
y (t) e(t) n(t) xn=x41x2 +sqrt(2) y(t)
d Reg y=x1
n=v-f .
x2=x1 senx2 +u
..
y=v(t)
Lw
α CG ala elevador
E
horizontal CL
d
l LE
C g Centro de masas.
α, E ángulos pequeños.
h altitud.
L E fuerza de elevación.
El modelo del movimiento vertical (en altitud) del avión viene dado por el
balance de momentos
y el balance de fuerzas
m ḧ = (C z E + C zw )α − C z E E (10.4.17)
J = 1, m = 1, C z E = 1, C zw = 5, l = 3, d = 0.2, b = 4 (10.4.18)
ẋ1 = x2
ẋ2 = −4x2 − 4x1 + 3E
ẋ3 = x4
ẋ4 = 6x1 − E
y = x3
424 10. Control de sistemas no lineales
7
1.4
6
1.2
5 1
4 0.8
h´´
3 0.6
h
2 0.4
1 0.2
0 0
−1 −0.2
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
tiempo tiempo
donde ỹ = y − yd . Entonces
ỹ¨ + ỹ˙ + ỹ = 0
es decir
α̈ + 4α̇ − 14α = 3(− ÿd + ỹ˙ + ỹ) (10.4.21)
y, por tanto, el sistema es inestable. Específicamente, los polos del miembro
izquierdo de 10.4.21 son los ceros de la función de transferencia 10.4.20.
ẏ = h x f + h x gu
ÿ = (h x f )x f + (h x f )x gu
h x g ≡ 0, (h x f )x g ≡
/ 0
∂ ∂ ∂ ∂
L f = f1 + . . . + fn , L g = g1 + . . . + gn
∂ x1 ∂ xn ∂ x1 ∂ xn
L g L ν−1
f h ≡
/ 0.
Definición 10.4.2: Un sistema tiene grado relativo fuerte ν si tiene grado relativo
ν y además
L g L ν−1
f h 6 = 0, ∀x.
Para los sistemas de una entrada y una salida dados mediante una función de
transferencia, el grado relativo es la diferencia entre el grado del denominador y el
del numerador.
426 10. Control de sistemas no lineales
Si la entrada introducida es
1
u= (r − L νf h)
L g L ν−1
f h
ẋ = f (x, u) (10.5.1)
a) Estado: z = z(x)
b) Entrada: u = u(x, v)
z 1 = x1
(10.5.3)
z 2 = ax2 + sin x1
es decir, x2 = a1 (z 2 − sin z 1 ).
10.5. Linealización en la entrada/estado 427
Por tanto
ż 1 = −2z 1 + z 2
1 1
(ż 2 − ż 1 cos z 1 ) = − (z 2 − sinz 1 ) cos z 1 + u cos(2z 1 )
a a
(10.5.4)
ż 2 = ż 1 cos z 1 − z 2 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
ż 2 = (−2z 1 + z 2 ) cos z 1 − z 2 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
ż 2 = −2z 1 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
De donde,
ż 1 = −2z 1 + z 2
(10.5.5)
ż 2 = −2z 1 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
Si seleccionamos como transformación de la entrada:
1
u= (v − cos z 1 sin z 1 + 2z 1 cos z 1 ) (10.5.6)
a cos(2z 1 )
El sistema queda
ż 1 = −2z 1 + z 2
(10.5.7)
ż 2 = v
que es lineal. Por tanto, el problema se transforma en estabilizar el nuevo sistema.
El sistema 10.5.7 es lineal y controlable, por lo que la realimentación de estado es
v = −k1 z 1 − k2 z 2 (10.5.8)
Si, por ejemplo, v = −2z 2 entonces
ż 1 = −2z 1 + z 2
(10.5.9)
ż 2 = −2z 2
que tiene polos dobles en −2 en bucle cerrado.
Transformando a x1 y x2
z 1 = x1
(10.5.10)
z 2 = ax2 + sin x1
es decir,
x1 = z 1
1 (10.5.11)
x2 = (z 2 − sin z 1 )
a
y la entrada u correspondiente será,
1
u= (−2ax2 − 2 sin x1 − cos x1 sin x1 + 2x1 cos x1 ) (10.5.12)
a cos(2x1 )
El esquema de control será
428 10. Control de sistemas no lineales
r=0 + v u . x
v=-kTz u=u(x,v) x=f(x,u)
-
Bucle de linealización
z
z=z(x)
Bucle de posicionamiento
de polos
6
x
2
0
x1
−2
−4
−6
−6 −4 −2 0 2 4 6
Observaciones:
6
x
2
0
x1
−2
−4
−6
−6 −4 −2 0 2 4 6
Fig. 10.18: Respuesta del sistema del ejemplo 10.5.1 para a ligeramente distinta
de la que se supone
x = f (x) + ug(x)
(10.5.13)
y = h(x)
con grado relativo fuerte n igual al número de variables de estado. Entonces existe
una realimentación de estado que lo convierte en lineal con las variables de estado
z1 = y
z 2 = ẏ
(10.5.14)
...
z = y (n−1)
n
Demostración
Si se consideran las variables de estado y la salida
ż 1 = z 2
ż = z
2 3
(10.5.15)
. . .
ż n = ξ(z) + η(z)u
430 10. Control de sistemas no lineales
y = z1 (10.5.16)
se tiene que la realimentación
r −ξ
u= (10.5.17)
η
hace el sistema lineal.
e = r − 3y = r − 3x1
u m
≤ −1 -1
-0.9 -0.8
-0.6 -0.5
-0.3 -0.3
0 0
0.3 0.5
0.6 0.8
0.9 1.5
≥1 2
Para diseñar el controlador PI, se calcula la Integral del Error cuadrático (In-
R t 2 Squared Error o ISE) mediante la variable ẋ4 = e (t), es decir, x4 (t) =
2
tegral
0 e (t) dt, de manera que I S E = lim x 4 (t). En la práctica, bastará tomar un va-
t→∞
lor del tiempo suficientemente grande para que el sistema se estabilice en el valor
de referencia.
Para resolver el sistema de ecuaciones diferenciales se utiliza la orden ode45,
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
que integra ẋ = f (t, x), donde el tiempo va desde t0 hasta t f , con las condiciones
iniciales x0 y la función f viene definida por la función f uncapr x.m de MATLAB
del cuadro 10.3.
Para ejecutar el programa basta llamar al script ise.m del cuadro 10.2 para ob-
tener la ejecución del cuadro 10.4 y la figura 10.21. Para obtener más precisión o
cambiar el intervalo a estudiar, basta modificar la línea del for,
for Kp=0:.2:8
que estudia el intervalo [0, 8] a incrementos de 0.2.
Como se puede apreciar en la figura 10.22 el ISE decrece hasta un cierto valor
(K p = 1.4) que es el mínimo encontrado, y después crece hasta un valor próximo a
1, con pequeñas subidas y bajadas pero no llega a estabilizarse para valores grandes
de K p . El controlador PI encontrado es
Ki 1
Gc = K p + = 1.4 + .
s s
10.6. Diseño de un controlador para un sistema con una no linealidad 433
clear all
global Kp
Kpbest=0;ISEbest=1000; t0=0;tf=6;
x0=zeros(1,4);
for Kp=0:.2:8
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
IL=length(x(:,4));
disp(strcat(’Kp=’,num2str(Kp),’, ISE= ’,num2str(x(IL,4))));
if x(IL,4)<ISEbest
ISEbest =x(IL,4);
Kpbest=Kp;
end
end
Kp=Kpbest;
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
IL=length(x(:,4));
axis([0 6 0 2]);
plot(t,x(:,1));
text(1.4,.7,’Ki=1 fijo’);
text(1.4,.5,strcat(’Kp= ’,num2str(Kpbest,3),’ por simulacion’));
text(1.4,.3,strcat(’ISE= ’,num2str(x(IL,4))));
ylabel(’Respuesta’);xlabel(’Tiempo(s)’);
2.5 2.5
2 2
1.5 1.5
1 1
m
0.5
m
0.5
0 0
−0.5 −0.5
−1 −1
−1.5 −1.5
−2 −2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
u u
0.8
0.6
0.4
0.3 ISE=0.8632
0.2
0.1
0
0 1 2 3 4 5 6
Tiempo(s)
2.5
2
ISE
1.5
0.5
0
0 1 2 3 4 5 6
Kp
ẋ1 = x2
ẋ2 = f (x) + b(x)u
donde f (x) y b(x) son funciones no lineales no conocidas, donde b(x) ≥ b0 >
0 . Se desea diseñar una ley de control que restrinja los cambios de estado del
sistema a movimientos de los mismos a lo largo de la recta de control que pase
por el origen del plano de fase s = a1 x1 + x2 = 0. A lo largo de esta recta de
control (línea de deslizamiento) el movimiento del sistema viene caracterizado por
la ecuación ẋ1 = −a1 x1 . Si se toma a1 > 0, el estado x(t) del sistema tenderá
a cero a medida que t tiende a ∞ y con una velocidad que dependerá del valor
de a1 que se haya tomado. El aspecto más interesante de este enfoque consiste en
que si el movimiento del sistema se realiza por dicha línea de deslizamiento, los
cambios de estado del sistema y, por tanto, su conducta, vienen determinados por
la definición de la recta de control que se haya hecho, con independencia de las
funciones no lineales f (x) y b(x) del sistema.
El primer problema con el que nos encontramos al realizar este planteamiento
es ¿cómo podemos conseguir que la trayectoria del sistema alcance la recta de
deslizamiento y se mantenga sobre ella?
Para abordar esta cuestión nos apoyaremos en los teoremas de estabilidad de
Liapunov y especialmente en la utilización de una función de Liapunov que nos
garantice la estabilidad del sistema al introducir la ley de control que obligue al
mismo a moverse por la línea de deslizamiento. Recordemos que el teorema de
Liapunov (5.2.1) nos decía que si existía una función de Liapunov V (x) para el
sistema en un dominio que contenga al origen, entonces el origen será estable en
el sentido de Liapunov si V̇ (x) es una función definida negativa en un entorno del
origen Sr (0). Si además, V (x) → ∞ cuando ||x|| → ∞, el sistema es global y
asintóticamente estable.
Si definimos como función de Liapunov V (x) = 12 s 2 , entonces V̇ (x) = s ṡ, y
teniendo en cuenta que s = a1 x1 + x2 , ṡ tomará la forma
para alguna función conocida ρ(x) > 0. Para este caso, la derivada de la función
de Liapunov es
V̇ = s ṡ = s[a1 x2 + f (x)] + sb(x)u ≤ b(x)|s|ρ(x) + b(x)su
Si tomamos como ley de control u = −K (x)sign(s), donde K (x) ≥ ρ(x) + K 0 ,
con K 0 > 0.
Entonces, introduciendo la expresión de la ley de control en V̇ (x), tendremos
que
V̇ (x) ≤ b(x)|s|ρ(x) − b(x)s[ρ(x) + K 0 ]sign(s)
≤ −b(x)K 0 |s|
≤ −b0 K 0 |s|
y como se puede observar el valor de la derivada de la función de Liapunov toma
siempre valor negativo, por lo que la ley de control introducida en el sistema hará
que éste sea estable.
De lo anteriormente expuesto se puede extraer que el movimiento del sistema
tendrá dos fases. En la primera se alcanzará la superficie de deslizamiento y en
la segunda fase el movimiento del sistema estará restringido a la línea de control
donde s = 0 y donde la dinámica del sistema en bucle cerrado queda reducida a
ẋ1 = −a1 x1 . El diseño de la ley de control −K (x)sign(s) requiere únicamente del
conocimiento de una cota superior de la función ρ(x), con lo que tomando un valor
de K tal que K > ρ(x) la ley de control nos quedará u = −K sign(s).
La característica más notable de esta ley de control consiste en que es, básica-
mente, un relé. Con él conseguimos que un sistema no lineal del que desconocemos
las no-linealidades se comporte como un sistema lineal a lo largo de la superficie
de deslizamiento con un dispositivo de control tan simple como un relé.
Ejemplo 10.7.1: Dadas las ecuaciones de un péndulo invertido (Fig. 10.23)
ẋ1 = x2
ẋ2 = − g sen(x1 ) − c0 x2 + 1 u
l m ml 2
donde x1 = θ, x2 = θ̇ y u = F, siendo m, l, c0 y g respectivamente la masa,
longitud, coeficiente de fricción y aceleración de la gravedad. Se desea estabilizar
el péndulo en la posición θ = 0.
Tomando como ley de control la expresión
u = −K sign(s) = −K sign(a1 x1 + x2 )
y eligiendo a1 = 1, tenemos que f (x) = − gl sen(x1 ) − cm0 x2 , b(x) = 1
ml 2
, de donde
se obtiene
a1 x2 + f (x)
= |l 2 (m − c0 )x2 − mgl sen(x1 )|
b(x)
≤ l 2 |m − c0 |2π + mgl ≤ K
10.7. Control deslizante 439
Péndulo
θ
l mg
Carro
x2
u
x1
péndulo
Scope
x1
u
x2
controlador
Scope1
x1_dot 1 x1
s 2
x1
Integrator1
x2_dot x2
1
f(u) s 1
1 x2
u -1.5*sin(u(2))-0.75*u(1)+0.75*u(3) Integrator
Fig. 10.25: Esquema Simulink del bloque del sistema del ejemplo 10.7.1
0.1
delta
1 sin 1
x1 u
Trigonometric
Function
2 10
x2 Gain1 Saturation
Product
|u| 4
Abs Gain
Constant
Fig. 10.26: Esquema Simulink del bloque del controlador del ejemplo 10.7.1
1
x1
x2
0.5
x1, x2
−0.5
epsilon=0.1
−1
0 1 2 3 4 5 6 7 8 9 10
tiempo
2
u
0
−2
u
−4
−6
−8
0 1 2 3 4 5 6 7 8 9 10
tiempo
u = −2sign(x1 + x2 )
10.7. Control deslizante 441
1
x1
x2
0.5
x1, x2
−0.5
epsilon=0.01
−1
0 1 2 3 4 5 6 7 8 9 10
tiempo
2
u
0
−2
u
−4
−6
−8
0 1 2 3 4 5 6 7 8 9 10
tiempo
Si n = 3,
s = x̃¨ + 2λ x̃˙ + λ2 x̃ (10.7.4)
n−1
d
s(x, t) = +λ x̃ (10.7.5)
dt
s 1 y1 1 1 x~
... ...
s+λ s+λ s+λ
n-1
es decir
8
|y1 (t)| ≤
λ
...
8 n−1−i
|yi (t)| ≤ (10.7.8)
λ
...
8 n−1
|yn−1 (t)| ≤
λ
Por tanto,
|x̃| ≤ ε (10.7.9)
Para obtener x̃ (i) hay que derivar i veces x̃
s 1 1 z1 1 1 x~(i)
... ...
s+λ s+λ s+λ s+λ
n-1-i i
s s+λ−λ λ
= =1− (10.7.10)
s+λ s+λ s+λ
" i #
(i) 8 n−i−1 −1 λ 8 n−i−1 λ i
x̃ ≤ L 1− ≤ 1+ = (2λ)i ε (10.7.11)
λ s+λ λ λ
Supongamos que elegimos una entrada del sistema u tal que, por ejemplo
1 d 2
s ≤ −η|s| (10.7.12)
2 dt
donde η es una constante positiva. Esta inecuación indica que el cuadrado de la
distancia a la superficie S, medida como s n , decrece con el tiempo.
Esta entrada u debe verificarse fuera de la superficie S, ya que una vez que la
trayectoria está en S, se mantendrá en ella. La condición se denomina condición de
deslizamiento.
Otra posibilidad es que la superficie s(t) sea a la vez dinámica y el lugar de la
superficie.
444 10. Control de sistemas no lineales
s(t)
n−1
d
+λ x̃ = 0 (10.7.13)
dt
Supongamos que inicialmente estamos fuera se S: s(t = 0) > 0 y que t2 es el
tiempo para alcanzar la superficie s = 0.
Integrando la condición de deslizamiento,
Z t=t2
1 d 2
s dt = s(t = t2 ) − s(t = 0) = 0 − s(t = 0) ≤ −η(t2 − 0) (10.7.14)
2 t=0 dt
.
x
Para h=2
tiempo exponencial
tiempo finito
. xd
s=0
Conclusión:
Elegir la función s(x, t) según 10.7.2.
Problemas
Las imprecisiones en el momento de conmutación y el paso de una trayecto-
ria a la trayectoria de la superficie S.
.
x
. xd
s=0
ẍ = f + u (10.7.15)
donde
-u es la entrada
-y es la salida
-f es una función no lineal o variante en el tiempo (no exactamente conocida).
Suponemos que vale fˆ de tal forma que el error está acotado: | fˆ − f | ≤ F.
1 ≤ a(t) ≤ 2 (10.7.17)
446 10. Control de sistemas no lineales
la estimación de f ,
fˆ = −1.5ẋ 2 cos 3x (10.7.18)
y la acotación
| fˆ − f | ≤ F = 0.5ẋ 2 | cos 3x| (10.7.19)
Se desea resolver el problema de seguimiento x(t) = xd (t).
Solución:
Definimos la superficie deslizante s = 0, según 10.7.2:
d
s= + λ x̃ = x̃˙ + λ x̃ (10.7.20)
dt
ṡ = ẍ − x¨d + x x̃˙ = f + u − x¨d + λ x̃˙ (10.7.21)
La mejor elección de û que hace ṡ = 0 es:
û = − fˆ + x¨d − λ x̃˙ (10.7.22)
Para satisfacer la condición de deslizamiento 10.7.1 añadimos a ũ el término de
discontinuidad a lo largo de la superficie s = 0:
u = ũ − k sign(s) (10.7.23)
es decir,
sign(s) = +1, si s > 0
(10.7.24)
sign(s) = −1, si s < 0
1 d 2
s = ṡs = [ f − f˜ − k sign(s)]s = ( f − f˜)s − k|s| (10.7.25)
2 dt
k = F +η (10.7.26)
1 d 2
s ≤ −η|s| (10.7.27)
2 dt
El control ũ indica que si el error es negativo, actúa en el sentido positivo y vice-
versa. La señal de error es
s = x̃˙ + x̃ (10.7.28)
y la señal de control
u = ũ − k sign(s). (10.7.29)
Como se observa en las gráficas 10.35 y 10.36, que representan la implemen-
tación del control deslizante del ejemplo 10.7.2 simulado mediante los esquemas
10.37, 10.38 y 10.39, el aumento del ancho de la capa límite η hace que el cas-
tañeteo (chattering) aumente y el error de seguimiento sea mayor. No obstante, la
disminución del parámetro η obliga a que la respuesta frecuencial del controlador
deba ser más rápida. Por otro lado, el aumento de η lleva a que se puedan con-
trolar sistemas con conocimiento menos preciso de la parte no-lineal o, lo que es
equivalente, de la superficie de deslizamiento s = 0.
10.7. Control deslizante 447
0.5
x,xd, para eta=0.1
−0.5
−1
−1.5
0 1 2 3 4 5 6 7 8 9 10
tiempo
40
30
20
u
10
−10
0 1 2 3 4 5 6 7 8 9 10
tiempo
0.5
x,xd, para eta=1
−0.5
−1
−1.5
0 1 2 3 4 5 6 7 8 9 10
tiempo
40
30
20
u
10
−10
0 1 2 3 4 5 6 7 8 9 10
tiempo
0.06
0.04
0.02
−0.02
−0.04
−0.06
2 3 4 5 6 7 8
sin(pi*u/2)
Clock xd
Fcn cos(3x)
cos(3x) Scope1
u In1 x_dot
xdot
x x
Controller Model
Scope
2
x_dot
3
x
x_dot_dot
x_dot x
1 1
1 s s 3 cos 1
In1 cos(3x)
Integrator Integrator1 Gain Trigonometric
Function
Random Saturation
Number Product
Fig. 10.38: Diagrama de Simulink del bloque del modelo del ejemplo 10.7.2
10.7. Control deslizante 449
xd_dot
pi*0.5*cos(pi*u/2) -20(xdot-xd_dot)
-20
Clock Fcn Gain 1
xd_dot_dot
u
-pi^2*0.25*sin(pi*u/2)
Fcn1
10
Gain2 Saturation -1
4 Gain3
x 20
1 Product2
xd Gain1
0.5
Gain5
0.5x_dot^2|cos3x|+0.1
3 1.5 0.1
xdot Constant1
Gain4 Product
1.5xdot*xdot*cos(3x)
2
cos(3x)
Product1
|u|
Abs
Fig. 10.39: Diagrama de Simulink del bloque del controlador del ejemplo 10.7.2
450 10. Control de sistemas no lineales
Bibliografía
[5] J.J.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.
Cauchy, Agustin Louis Sir William Rowan Hamil- Routh, Edward John
(1789 Paris (Francia) – ton (1831 Quebec (Canada) –
1857 Paris (Francia)) (1805 Dublin (Irlanda) - 1907 Cambridge (Reino
1865 Dublin (Irlanda)) unido))
456
Índice alfabético 457
transformada de Laplace, 3
transformada inversa de Fourier, 3
transformada inversa de Laplace, 7
transformada z, 13
Ziegler-Nichols, 280
460 Índice alfabético
View publication stats
CONTRAPORTADA