Está en la página 1de 488

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/258109379

Ingeniería de Control. Modelado y control de sistemas


dinámicos

Book · September 2003

CITATIONS READS

9 22,415

3 authors, including:

Santiago Garrido Luis E Moreno


University Carlos III de Madrid University Carlos III de Madrid
145 PUBLICATIONS   1,673 CITATIONS    283 PUBLICATIONS   3,050 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

UAV path planning View project

Phase Magnitude Diagram Control Systems Design View project

All content following this page was uploaded by Santiago Garrido on 23 December 2021.

The user has requested enhancement of the downloaded file.


UNIVERSIDAD CARLOS III DE MADRID
Departamento de Ingeniería de Sistemas y Automática

INGENIERÍA DE CONTROL

MODELADO, ANÁLISIS Y CONTROL DE SISTEMAS


DINÁMICOS

Luis Moreno, Santiago Garrido, Carlos Balaguer


II
A nuestras familias.
VI
Luis Moreno Lorente (1960), es Profesor Titular de la Universidad Carlos III
de Madrid (1992) y Doctor Ingeniero Industrial por la Universidad Politécnica de
Madrid (1988). Ha desarrollado su labor docente e investigadora en el área de Inge-
niería de Sistemas y Automática, en donde ha participado en numerosos proyectos
de investigación nacionales e internacionales, sobre todo en la temática de robótica
móvil, siendo autor de numerosas contribuciones a conferencias internacionales,
revistas y libros.
Santiago Garrido Bullón (1955), es Profesor Asociado de la Universidad Car-
los III de Madrid y Licenciado en Matemáticas por la Universidad Complutense,
Licenciado en Físicas por la UNED, Máster en Informática por la Universidad
Pontificia de Salamanca y Doctor por la Universidad Carlos III de Madrid (2000).
Ha participado en diversos proyectos internacionales y es autor de varios artícu-
los en congresos y revistas internacionales en temas de control e identificación de
sistemas.
Carlos Balaguer Bernaldo de Quirós (1954) es Catedrático de Ingeniería de
Sistemas y Automática de la Universidad Carlos III de Madrid (1996) y Doctor
Ingeniero Industrial por la Universidad Politécnica de Madrid (1983). Su docen-
cia e investigación están estrechamente ligadas a la ingeniería de control y a la
automatización, especialmente a la robótica y a los sistemas flexibles de produc-
ción. Es autor de varios libros y numerosos artículos en estos temas y miembro de
prestigiosas sociedades científicas.
VIII
PREFACIO

La Ingeniería de Control tradicionalmente ha estado vinculada al sector in-


dustrial para control de sistemas físicos. Pero últimamente, ésta se ha extendido
a otros campos productivos y de servicios tales como sistemas biológicos, fisioló-
gicos, económicos, etc., en donde el modelado y posterior control son claves. De
este modo, la Ingeniería de Control se presenta como una disciplina horizontal con
múltiples aplicaciones y campos sectoriales.
El objetivo de este libro es presentar las metodologías y técnicas de modelado y
control de sistemas dinámicos. El libro pretende, sobre todo, ser un texto didáctico
para impartir y recibir clases de Ingeniería de Control. No se ha pretendido hacer un
libro de profundidad y contenido investigador, sino un libro para los alumnos. Por
ello, sus desarrollos son los estrictamente necesarios y los que en el tiempo lectivo
disponible puedan ser impartidos. Al lector se le presupone un conocimiento básico
de la teoría clásica de control, y de señales y sistemas. No obstante, se hace una
somera revisión de los conceptos más empleados que pueden ser profundizados
con la ayuda de las numerosas referencias que se incluyen en cada capítulo.
En la parte de modelado de sistemas el estudio abarca tanto sistemas lineales,
continuos y discretos, como sistemas no-lineales. Así mismo, y con la profundidad
que requiere un libro de texto, se tratan sistemas estocásticos. En la parte de siste-
mas lineales a la vez que se presentan técnicas clásicas de modelado, basadas en
la relación externa (entrada-salida), también se incluyen técnica de representación
interna mediante variables de estado. A las identificación de sistemas se le dedi-
ca un capítulo que, sin pretender abarcar todas las técnicas existentes, presenta un
amplio espectro de las más usadas. La parte de sistemas no-lineales se basa en las
técnicas de función descriptiva y plano de fase, así como en el estudio de los ciclos
límites. Por último, a los temas de estabilidad, incluidos tanto los métodos clásicos
como el método de Liapunov, se le dedica un capitulo.
En la parte de control se hace una revisión de los desarrollos clásicos basados
en reguladores PID (tanto continuos como discretos), para posteriormente pasar
a profundizar técnicas más avanzadas como el método de síntesis directa, la rea-
limentación de estado y los observadores, tanto sin ruido como con ruido en el
sistema. En el capítulo de control óptimo se plantean diversas estrategias de con-
trol, para finalizar con el método del mínimo de Pontriaguin. En la parte de control
de sistemas no-lineales se presentan los dos métodos más conocidos como el de
linealización por realimentación y el control deslizante.
Se trata de un texto de carácter introductorio que pretende, evitando las demos-
traciones innecesarias, no solamente presentar y desarrollar el aparato matemático
estrictamente necesario, sino también analizar el carácter físico de los resultados
y comportamientos. El libro presenta en la mayoría de los capítulos una amplia
gama de problemas resueltos que ayudan al lector a la mejor asimilación de los
contenidos teóricos. Asimismo, el texto incluye numerosas referencias que pueden
apoyar la profundización de los contenidos de algunos capítulos.
Es evidente que hay numerosos temas que han quedado fuera de este texto,
pero también es cierto que hemos pretendido incluir la amplia de la temática que
abarcan las numerosas asignaturas relacionadas con la Ingeniería de Control que se
imparten en varias titulaciones de Ingeniería. El libro está orientado fundamental-
mente a los alumnos que cursen materias relacionadas con la Ingeniería de Control
(modelado, identificación, control, etc.) y es fruto de numerosos años de docencia
de los autores. Igualmente el libro pretende ser un texto de consulta básica para los
profesionales de los sectores afines.
Los autores quieren reconocer la valiosa ayuda de muchas personas, tanto a
la hora de revisar el texto como de sugerir cambios y ejemplos explicatorios. Este
libro no habría visto la luz sin la inestimable ayuda de los alumnos de la Universi-
dad Carlos III de Madrid, que con su día a día han permitido pulir los contenidos
del mismo y facilitar los numerosos desarrollos. La ayuda de varios miembros del
Departamento de Ingeniería de Sistemas y Automática han permitido igualmente
mejorar notablemente su calidad.
Esperamos que los lectores disfruten del libro, perdonándonos los inevitables
errores que a pesar nuestro habrán quedado, y que les sea de ayuda en su formación
...
Los autores

X
ÍNDICE GENERAL

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX

1.. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Concepto de transformada . . . . . . . . . . . . . . . . . . . . . 2
1.3. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1. Transformada inversa de Fourier . . . . . . . . . . . . . 3
1.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . 3
1.4.1. Propiedades de la transformada de Laplace . . . . . . . . 4
1.4.2. Transformadas de Laplace de algunas funciones . . . . . . 7
1.4.3. Transformada inversa de Laplace . . . . . . . . . . . . . 7
1.4.4. Resolución de ecuaciones diferenciales . . . . . . . . . . 11
1.4.5. Operador derivada . . . . . . . . . . . . . . . . . . . . . 12
1.5. Transformada z . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1. Propiedades de la transformada en z . . . . . . . . . . . . 13
1.5.2. Transformadas z de algunas funciones . . . . . . . . . . . 15
1.5.3. La transformada z inversa . . . . . . . . . . . . . . . . . 16
1.5.4. Resolución de ecuaciones en diferencias . . . . . . . . . . 18
1.5.5. Operador retardo . . . . . . . . . . . . . . . . . . . . . . 19
1.6. Procesos estocásticos o aleatorios . . . . . . . . . . . . . . . . . 20
1.6.1. Variable aleatoria y proceso aleatorio . . . . . . . . . . . 21
1.6.2. Funciones de distribución y de densidad de probabilidad . 24
1.6.3. Parámetros para describir un proceso estocástico . . . . . 26
1.6.4. Función de autocorrelación . . . . . . . . . . . . . . . . . 29
1.6.5. Función de correlación cruzada . . . . . . . . . . . . . . 31
1.6.6. Función de densidad espectral . . . . . . . . . . . . . . . 33
1.6.7. Descripción espectral de las perturbaciones . . . . . . . . 34
1.6.8. Espectro cruzado . . . . . . . . . . . . . . . . . . . . . . 35
1.6.9. Ruido blanco . . . . . . . . . . . . . . . . . . . . . . . . 35
1.6.10. Descripción de perturbaciones en función del ruido blanco 36

2.. Técnicas clásicas de modelado de sistemas . . . . . . . . . . . 41


2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2. Modelos de entrada/salida . . . . . . . . . . . . . . . . . . . . . 42
2.3. Modelos temporales . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . 42
2.3.2. Modelos en tiempo continuo . . . . . . . . . . . . . . . . 46
2.3.3. Modelos en tiempo discreto . . . . . . . . . . . . . . . . 47
2.4. Modelos frecuenciales . . . . . . . . . . . . . . . . . . . . . . . 68
2.4.1. Respuesta frecuencial de los sistemas muestreados . . . . 71
2.4.2. Espectro de una señal muestrada . . . . . . . . . . . . . . 72
2.4.3. Teorema de muestreo . . . . . . . . . . . . . . . . . . . . 74
2.5. Modelos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . 75
2.5.1. Modelos estocásticos en tiempo discreto . . . . . . . . . . 76

3.. Modelado y análisis de sistemas en el espacio de estados . . 79


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Concepto de estado de un sistema . . . . . . . . . . . . . . . . . 81
3.2.1. Representación matricial de las ecuaciones de estado . . . 82
3.2.2. Función de transferencia y representación en el espacio de
estados . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3. Representación de sistemas en el espacio de estados . . . . . . . . 90
3.3.1. Conversión de una ecuación diferencial ordinaria a ecua-
ciones de estado . . . . . . . . . . . . . . . . . . . . . . 90
3.3.2. Conversión de una ecuación en diferencias a ecuaciones de
estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.3.3. Transformaciones entre representaciones . . . . . . . . . 104
3.4. Solución de la ecuación de estado . . . . . . . . . . . . . . . . . 112
3.4.1. Sistemas de tiempo continuo . . . . . . . . . . . . . . . . 113
3.4.2. Obtención de la solución por el método de la transformada
de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.4.3. Discretización de las ecuaciones de estado en tiempo con-
tinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.4.4. Solución de la ecuación de estado en tiempo discreto . . . 120
3.4.5. Obtención de la solución por el método de la transformada
en z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
3.5. Modelado de las perturbaciones en el espacio de estados . . . . . 123
3.5.1. Perturbaciones en el sistema . . . . . . . . . . . . . . . . 123
3.5.2. Perturbaciones en la medida . . . . . . . . . . . . . . . . 126
3.6. Ejemplos de sistemas físicos . . . . . . . . . . . . . . . . . . . . 129

XII
4.. Modelado y análisis de sistemas no-lineales . . . . . . . . . . 135
4.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2. Efectos de las no-linealidades . . . . . . . . . . . . . . . . . . . . 137
4.3. Función descriptiva . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.3.1. Método de obtención de la función descriptiva dada la ca-
racterística entrada-salida de la no-linealidad . . . . . . . 141
4.4. Análisis por función descriptiva . . . . . . . . . . . . . . . . . . 151
4.4.1. Estudio de la estabilidad del sistema . . . . . . . . . . . . 152
4.4.2. Aplicación a la estabilidad de los ciclos límites . . . . . . 152
4.5. Análisis en el plano de fase . . . . . . . . . . . . . . . . . . . . . 164
4.5.1. Puntos singulares . . . . . . . . . . . . . . . . . . . . . . 167
4.6. El Método de las isoclinas . . . . . . . . . . . . . . . . . . . . . 175

5.. Estabilidad de sistemas dinámicos . . . . . . . . . . . . . . . . 191


5.1. Métodos clásicos de análisis de estabilidad . . . . . . . . . . . . . 192
5.1.1. Método de Routh . . . . . . . . . . . . . . . . . . . . . . 192
5.1.2. Método de Jury . . . . . . . . . . . . . . . . . . . . . . . 196
5.1.3. Método de Nyquist . . . . . . . . . . . . . . . . . . . . . 198
5.2. Método de Liapunov . . . . . . . . . . . . . . . . . . . . . . . . 211
5.2.1. Análisis de estabilidad de sistemas lineales continuos . . . 219
5.2.2. Análisis de estabilidad de sistemas lineales discretos . . . 223
5.3. Método de Popov . . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.4. El criterio del círculo . . . . . . . . . . . . . . . . . . . . . . . . 230

6.. Identificación de sistemas dinámicos . . . . . . . . . . . . . . . 237


6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
6.2. Familias de modelos utilizadas en identificación . . . . . . . . . . 238
6.2.1. Modelos no-paramétricos . . . . . . . . . . . . . . . . . . 239
6.2.2. Modelos paramétricos . . . . . . . . . . . . . . . . . . . 239
6.3. Métodos de estimación no-paramétricos . . . . . . . . . . . . . . 245
6.3.1. Estimación de la respuesta temporal . . . . . . . . . . . . 246
6.3.2. Estimación de la respuesta frecuencial . . . . . . . . . . . 252
6.3.3. Generación de ruido blanco . . . . . . . . . . . . . . . . 257
6.4. Métodos paramétricos . . . . . . . . . . . . . . . . . . . . . . . . 259
6.4.1. El concepto de regresión . . . . . . . . . . . . . . . . . . 259
6.4.2. Regresión lineal . . . . . . . . . . . . . . . . . . . . . . 259
6.4.3. Estimación por mínimos cuadrados . . . . . . . . . . . . 260
6.4.4. Formulación recursiva del estimador de mínimos cuadrados 266
6.4.5. Método de mínimos cuadrados extendido . . . . . . . . . 269
6.5. Elección y validación de la estructura del modelo . . . . . . . . . 272
6.5.1. Validación del modelo . . . . . . . . . . . . . . . . . . . 272

XIII
7.. Técnicas clásicas de control . . . . . . . . . . . . . . . . . . . . 275
7.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . 275
7.2. Diseño de controladores clásicos . . . . . . . . . . . . . . . . . . 276
7.3. Especificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
7.4. Control PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
7.4.1. Estructura básica de un controlador PID . . . . . . . . . . 279
7.4.2. Métodos de Ziegler - Nichols . . . . . . . . . . . . . . . 280
7.5. Métodos analíticos de diseño de controladores PID . . . . . . . . 284
7.5.1. Método de asignación de polos . . . . . . . . . . . . . . . 284
7.5.2. Diseño basado en los polos dominantes . . . . . . . . . . 287
7.5.3. Discretización de un controlador PID . . . . . . . . . . . 296
7.5.4. Diseño de controladores PID discretos . . . . . . . . . . . 305
7.5.5. Estructura de un controlador PID discreto real . . . . . . 309
7.6. Diseño de reguladores por síntesis directa . . . . . . . . . . . . . 311
7.6.1. Restricciones de realización física . . . . . . . . . . . . . 313
7.6.2. Conveniencia de simplicidad . . . . . . . . . . . . . . . . 314
7.6.3. Restricciones de estabilidad . . . . . . . . . . . . . . . . 314
7.6.4. Controladores con tiempo de establecimiento mínimo . . . 318

8.. Control de sistemas por realimentación de estado . . . . . . . 329


8.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . 329
8.1.1. Modos observables y controlables . . . . . . . . . . . . . 330
8.2. Controlabilidad de un sistema . . . . . . . . . . . . . . . . . . . 331
8.2.1. Controlabilidad de estado . . . . . . . . . . . . . . . . . 331
8.2.2. Controlabilidad de la salida . . . . . . . . . . . . . . . . 335
8.3. Observabilidad de un sistema . . . . . . . . . . . . . . . . . . . . 338
8.3.1. Observabilidad completa de estado . . . . . . . . . . . . 339
8.4. Invarianza de la controlabilidad y observabilidad . . . . . . . . . 341
8.5. Principio de dualidad . . . . . . . . . . . . . . . . . . . . . . . . 342
8.6. Control por realimentación de estado . . . . . . . . . . . . . . . . 344
8.6.1. Sistemas con entrada y salida escalar . . . . . . . . . . . 344
8.6.2. Ajuste de las posiciones de los polos . . . . . . . . . . . . 346
8.6.3. Ajuste de la ganancia . . . . . . . . . . . . . . . . . . . . 352
8.6.4. Modificación del tipo del sistema . . . . . . . . . . . . . 354
8.6.5. Sistemas con entrada vector . . . . . . . . . . . . . . . . 358
8.7. Diseño de observadores de estado . . . . . . . . . . . . . . . . . 360
8.7.1. Observador de orden completo . . . . . . . . . . . . . . . 361
8.7.2. Comportamiento conjunto del sistema realimentado con el
observador . . . . . . . . . . . . . . . . . . . . . . . . . 368
8.7.3. Observador de orden reducido . . . . . . . . . . . . . . . 369
8.8. Observador óptimo del estado . . . . . . . . . . . . . . . . . . . 372
8.8.1. Ecuaciones del filtro de Kalman . . . . . . . . . . . . . . 377

XIV
9.. Control óptimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
9.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
9.2. Funciones de coste . . . . . . . . . . . . . . . . . . . . . . . . . 380
9.3. El problema general de control óptimo (discreto) . . . . . . . . . 382
9.4. Regulador lineal cuadrático (LQR) discreto . . . . . . . . . . . . 386
9.4.1. Control discreto con estado final libre . . . . . . . . . . . 387
9.4.2. Control óptimo discreto en estado estacionario . . . . . . 390
9.5. Control óptimo en tiempo continuo . . . . . . . . . . . . . . . . . 391
9.5.1. Solución del problema de control óptimo . . . . . . . . . 392
9.6. Regulador lineal cuadrático (LQR) continuo . . . . . . . . . . . . 396
9.6.1. Control continuo con estado final libre . . . . . . . . . . . 396
9.6.2. Control continuo en estado estacionario . . . . . . . . . . 399
9.7. Principio del mínimo de Pontriaguin . . . . . . . . . . . . . . . . 404
9.7.1. Diseño con restricciones en la entrada . . . . . . . . . . . 405

10..Control de sistemas no lineales . . . . . . . . . . . . . . . . . . 409


10.1. Sistemas con retardo puro . . . . . . . . . . . . . . . . . . . . . . 409
10.2. Predictor de Smith . . . . . . . . . . . . . . . . . . . . . . . . . 410
10.2.1. Procedimiento de cálculo . . . . . . . . . . . . . . . . . . 411
10.3. Linealización por realimentación . . . . . . . . . . . . . . . . . . 414
10.4. Linealización de entrada/salida . . . . . . . . . . . . . . . . . . . 417
10.4.1. Grado relativo . . . . . . . . . . . . . . . . . . . . . . . 424
10.4.2. Linealización de entrada-salida y grado relativo . . . . . . 426
10.5. Linealización en la entrada/estado . . . . . . . . . . . . . . . . . 426
10.6. Diseño de un controlador para un sistema con una no linealidad . . 431
10.7. Control deslizante . . . . . . . . . . . . . . . . . . . . . . . . . . 437
10.7.1. Superficie de deslizamiento . . . . . . . . . . . . . . . . 441

Algunos datos históricos . . . . . . . . . . . . . . . . . . . . . . . . 451

Contraportada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461

XV
XVI
ÍNDICE DE CUADROS

7.1. Valores de los parámetros propuestos por Ziegler-Nichols para el


método de respuesta a un escalón . . . . . . . . . . . . . . . . . . 282
7.2. Valores de los parámetros propuestos por Ziegler-Nichols para el
método frecuencial . . . . . . . . . . . . . . . . . . . . . . . . . 284

10.1. Datos experimentales de la no linealidad . . . . . . . . . . . . . . 432


10.2. Programa principal ise.m para el diseño del controlador PI . . . . 433
10.3. Función funcaprx.m utilizada por el script ise.m . . . . . . . . . . 434
10.4. Resultados de la ejecución del programa ise.m . . . . . . . . . . . 434
XVIII
ÍNDICE DE FIGURAS

1.1. Función aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . 21


1.2. Proceso aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3. Proceso aleatorio discreto . . . . . . . . . . . . . . . . . . . . . . 23
1.4. Ejemplos de funciones de distribución . . . . . . . . . . . . . . . 25
1.5. Ejemplos de funciones de densidad . . . . . . . . . . . . . . . . . 26
1.6. Función de autocorrelación . . . . . . . . . . . . . . . . . . . . . 29
1.7. Función de autocorrelación . . . . . . . . . . . . . . . . . . . . . 30
1.8. Función de autocovarianza . . . . . . . . . . . . . . . . . . . . . 31
1.9. Ruido blanco ideal . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.10. Ruido blanco con banda limitada . . . . . . . . . . . . . . . . . . 36

2.1. Respuesta a un impulso y a una suma de impulsos desplazados . . 44


2.2. Muestreador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3. Bloqueador de orden cero . . . . . . . . . . . . . . . . . . . . . . 50
2.4. Señal entre muestreos . . . . . . . . . . . . . . . . . . . . . . . . 51
2.5. Sistema continuo con entrada muestreada . . . . . . . . . . . . . 53
2.6. Sistema continuo sin entrada muestreada . . . . . . . . . . . . . . 54
2.7. Respuesta en tiempo continuo y discreto . . . . . . . . . . . . . . 58
2.8. Equivalente en tiempo discreto de un sistema en tiempo continuo . 58
2.9. Bucle de control típico muestreado . . . . . . . . . . . . . . . . . 62
2.10. Esquema típico de control por computador . . . . . . . . . . . . . 63
2.11. Controlador discreto equivalente G e (z) de un controlador analógi-
co G c (s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.12. Aproximaciones a la integración . . . . . . . . . . . . . . . . . . 66
2.13. Discretización de un controlador analógico . . . . . . . . . . . . 68
2.14. Diagrama de bode de un sistema de segundo orden . . . . . . . . 70
2.15. Diagrama de bode de un sistema de segundo orden en tiempo discreto 73
2.16. Señales en el dominio temporal y su correspondiente magnitud es-
pectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.17. Efecto de reducir la frecuencia de muestreo en F ∗ (ω). . . . . . . 75
2.18. Modelo estocástico del sistema . . . . . . . . . . . . . . . . . . . 76

3.1. Red RC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2. Concepto de estado . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3. Diagrama de bloques de un sistema en tiempo continuo represen-
tado en ecuaciones de estado . . . . . . . . . . . . . . . . . . . . 83
3.4. Filtro Butterworth de 4o orden . . . . . . . . . . . . . . . . . . . 84
3.5. Representación gráfica de la forma canónica controlable . . . . . 93
3.6. Representación gráfica de la forma canónica observable . . . . . . 96
3.7. Representación gráfica de la forma canónica de diagonal . . . . . 98
3.8. Sistema del ejemplo 3.3.1 . . . . . . . . . . . . . . . . . . . . . . 100
3.9. Sistema sometido a perturbaciones . . . . . . . . . . . . . . . . . 124
3.10. Sistema con perturbaciones de sistema predecibles . . . . . . . . 125
3.11. Sistema con perturbaciones de salida predecibles . . . . . . . . . 127
3.12. Sistema del ejemplo 3.6.1 . . . . . . . . . . . . . . . . . . . . . . 129
3.13. Sistema del ejemplo 3.6.1 . . . . . . . . . . . . . . . . . . . . . . 131

4.1. Linealización de funciones analíticas simples (variación suave) . . 136


4.2. Gráficas correspondientes a no-linealidades pronunciadas: a) relé,
b) saturación, c) zona muerta y d) precarga . . . . . . . . . . . . . 136
4.3. Gráficas correspondientes a funciones multivaluadas: a) relé con
histéresis, b) histéresis magnética y c) huelgo (backlash) . . . . . 137
4.4. Sistema con bucle de realimentación que consta de una parte lineal
y otra no-lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.5. Sistema mecánico con masa, muelle y amortiguador . . . . . . . . 138
4.6. Gráficas de amplitud en función de la frecuencia para un sistema
con muelle a) duro y b) blando . . . . . . . . . . . . . . . . . . . 138
4.7. Respuesta de tipo a) exponencial decreciente y b) de tipo distinto
(lineal decreciente) . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.8. Respuesta de la ecuación de Van der Pol . . . . . . . . . . . . . . 140
4.9. Entrada-salida correspondiente a un relé . . . . . . . . . . . . . . 142
4.10. Función descriptiva de un relé . . . . . . . . . . . . . . . . . . . 143
4.11. Entrada-salida correspondiente a una saturación . . . . . . . . . . 144
4.12. Función descriptiva de una saturación . . . . . . . . . . . . . . . 145
4.13. Entrada-salida correspondiente a una zona muerta . . . . . . . . . 146
4.14. Función descriptiva de una zona muerta . . . . . . . . . . . . . . 147
4.15. Entrada-salida correspondiente a un huelgo . . . . . . . . . . . . 148
4.16. Entrada-salida correspondiente a un relé con histéresis . . . . . . 149
4.17. Módulo(a) y argumento(b) de la función descriptiva de un relé con
histéresis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
4.18. Sistema no-lineal con parte lineal . . . . . . . . . . . . . . . . . . 151
4.19. Ciclo límite inestable y estable y curvas típicas de x en función de t 153
4.20. Ejemplo de ciclo límite . . . . . . . . . . . . . . . . . . . . . . . 153
4.21. Representación de G( jω) y de −1/N (Ai , ω) . . . . . . . . . . . 154
4.22. Sistema en bucle cerrado . . . . . . . . . . . . . . . . . . . . . . 155
4.23. Criterio de Nyquist para sistemas de fase mínima . . . . . . . . . 155

XX
4.24. Sistema de la estabilidad de ciclos límites . . . . . . . . . . . . . 157
4.25. Sistema del ejemplo 4.4.2 . . . . . . . . . . . . . . . . . . . . . . 157
4.26. Representación de G( jω) y de −1/N (A) . . . . . . . . . . . . . 159
4.27. Sistema del ejemplo 4.4.3 . . . . . . . . . . . . . . . . . . . . . . 159
4.28. La intersección de G( jω) y de −1/N muestra la existencia del
ciclo límite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4.29. No-linealidad de adherencia (sticking) . . . . . . . . . . . . . . . 161
4.30. Bucle de control . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
4.31. Forma de onda de la salida de la no-linealidad . . . . . . . . . . . 163
4.32. Representación de G(s)R(s) y −1/N . . . . . . . . . . . . . . . 164
4.33. Plano de fase correspondiente a la ecuación 4.5.2 para ζ = 0 y
ω0 = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.34. Plano de fase correspondiente a la ecuación 4.5.2 para 0 < ζ < 1 . 166
4.35. Plano de fase correspondiente a la ecuación 4.5.2 para ζ > 1 . . . 167
4.36. Punto de silla en coordenadas modales y normales . . . . . . . . . 169
4.37. Nodo estable en coordenadas modales y normales . . . . . . . . . 170
4.38. Foco estable en coordenadas modales y normales . . . . . . . . . 171
4.39. Nodo inestable en coordenadas modales y normales . . . . . . . . 171
4.40. Foco inestable en coordenadas modales y normales . . . . . . . . 172
4.41. Centro en coordenadas modales y normales . . . . . . . . . . . . 172
4.42. Plano de fase cuando (a) λ1 = 0, λ2 > 0 y (b) λ1 = 0, λ2 < 0 . . 173
4.43. Puntos singulares en el plano p − q . . . . . . . . . . . . . . . . 173
4.44. Clasificación de los tipos de puntos singulares . . . . . . . . . . . 174
4.45. Método de las isoclinas . . . . . . . . . . . . . . . . . . . . . . . 176
4.46. Sistema del ejemplo 4.6.1 . . . . . . . . . . . . . . . . . . . . . . 177
4.47. Campo de direcciones de la región central . . . . . . . . . . . . . 179
4.48. Campo de direcciones de la zona de la derecha . . . . . . . . . . 180
4.49. Trayectorias típicas del ejemplo 4.6.1 . . . . . . . . . . . . . . . 181
4.50. Sistema del ejemplo 4.6.2 . . . . . . . . . . . . . . . . . . . . . . 181
4.51. Trayectoria típica del sistema del ejemplo 4.6.2 . . . . . . . . . . 183
4.52. Sistema del ejemplo 4.6.3 . . . . . . . . . . . . . . . . . . . . . . 183
4.53. Campo de direcciones del sistema del ejemplo 4.6.3 . . . . . . . . 186
4.54. Sistema del ejemplo 4.6.4 . . . . . . . . . . . . . . . . . . . . . . 187
4.55. Trayectorias típicas del ejemplo 4.6.4 . . . . . . . . . . . . . . . 189

5.1. Bucle de realimentación . . . . . . . . . . . . . . . . . . . . . . 191


5.2. Sistema del ejemplo 5.1.4 . . . . . . . . . . . . . . . . . . . . . . 196
5.3. Camino cerrado ρ y su imagen por F(s) . . . . . . . . . . . . . . 199
5.4. Sistema en bucle cerrado . . . . . . . . . . . . . . . . . . . . . . 200
5.5. Método de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . 200
5.6. Método de Nyquist modificado . . . . . . . . . . . . . . . . . . . 201
5.7. Sistema del ejemplo 5.1.6 . . . . . . . . . . . . . . . . . . . . . . 201

XXI
5.8. Camino de Nyquist para el ejemplo 5.1.8 . . . . . . . . . . . . . . 201
5.9. Diagrama de Nyquist del ejemplo 5.1.6 . . . . . . . . . . . . . . 202
5.10. Camino de Nyquist para un sistema con un polo en el origen . . . 203
5.11. Camino de Nyquist para un sistema con polos en el eje imaginario 204
5.12. Sistema estable . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.13. Sistema inestable . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.14. El sistema a) es más estable que los sistemas b) y c) . . . . . . . . 206
5.15. Cálculo del margen de ganancia . . . . . . . . . . . . . . . . . . 207
5.16. Diagrama de Nyquist, lugar de las raíces y respuesta escalón en bu-
1
cle cerrado según aumenta la ganancia del sistema G(s) = s(s+a)(s+b)
con a, b > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.17. Los dos sistemas tienen el mismo margen de ganancia, pero el a)
es más estable que el b) . . . . . . . . . . . . . . . . . . . . . . . 209
5.18. Margen de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
5.19. Margen de ganancia y de fase en el diagrama de Bode . . . . . . . 210
5.20. Trayectorias correspondientes al sistema y 2 = cx 3 . . . . . . . . . 212
5.21. Punto de equilibrio estable . . . . . . . . . . . . . . . . . . . . . 213
5.22. Punto de equilibrio inestable . . . . . . . . . . . . . . . . . . . . 213
5.23. Punto de equilibrio asintóticamente estable . . . . . . . . . . . . 214
5.24. Aspecto de una función de Liapunov V (x) . . . . . . . . . . . . . 215
5.25. Trayectoria de fase correspondiente al sistema 5.2.2 . . . . . . . . 217
5.26. Sistema con realimentación no-lineal . . . . . . . . . . . . . . . . 226
5.27. Condición del sector . . . . . . . . . . . . . . . . . . . . . . . . 226
5.28. Sistema asociado de Aizerman . . . . . . . . . . . . . . . . . . . 226
5.29. Interpretación geométrica del criterio de Popov . . . . . . . . . . 228
5.30. No-linealidad del ejemplo 5.3.1 . . . . . . . . . . . . . . . . . . . 229
5.31. Sistema estable en [0, K ] . . . . . . . . . . . . . . . . . . . . . . 230
5.32. Sistema con realimentación no-lineal . . . . . . . . . . . . . . . . 230
5.33. Descomposición de la función f(y) como suma de K y y de f˜(y) . 232
5.34. Sistema modificado con realimentación no-lineal . . . . . . . . . 233
5.35. Sistema modificado y simplificado con realimentación no-lineal . 233
5.36. Criterio del círculo para 1/G( jω) . . . . . . . . . . . . . . . . . 233
5.37. Criterio del círculo para G( jω) . . . . . . . . . . . . . . . . . . . 234
5.38. Curva de Nyquist para G y algunos círculos (de radio 0.3 y ∞) que
satisfacen el criterio del círculo . . . . . . . . . . . . . . . . . . . 235

6.1. Estructura de modelo ARX . . . . . . . . . . . . . . . . . . . . . 242


6.2. Estructura de modelo ARMAX . . . . . . . . . . . . . . . . . . . 243
6.3. Estructura de modelo OE . . . . . . . . . . . . . . . . . . . . . . 244
6.4. Estructura de modelo Box-Jenkins . . . . . . . . . . . . . . . . . 244
6.5. Respuesta impulsional . . . . . . . . . . . . . . . . . . . . . . . 248
6.6. Respuesta impulsional en presencia de ruido aditivo en el sistema 248

XXII
6.7. Respuesta a un escalón . . . . . . . . . . . . . . . . . . . . . . . 250
6.8. Auto correlación de la señal de entrada . . . . . . . . . . . . . . . 252
6.9. Correlación cruzada entre la entrada y la salida . . . . . . . . . . 253
6.10. Respuesta impulsional . . . . . . . . . . . . . . . . . . . . . . . 253
6.11. Identificación por el método de la respuesta frecuencial . . . . . . 254
6.12. Entrada ruido blanco y salida del sistema . . . . . . . . . . . . . . 257
6.13. Respuesta en frecuencia según el análisis espectral . . . . . . . . 258
6.14. Señal binaria pseudo-aleatoria . . . . . . . . . . . . . . . . . . . 258
6.15. Resultados del ejemplo 6.4.3: salidas real y estimada del sistema,
y el error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

7.1. Diagrama de bloques de un esquema general de control . . . . . . 275


7.2. Controlador en el lazo principal . . . . . . . . . . . . . . . . . . 276
7.3. Parámetros de la respuesta temporal . . . . . . . . . . . . . . . . 278
7.4. Respuesta ante entrada escalón de G(s) = saL e−s L . . . . . . . . . 281
7.5. Obtención de la ganancia crítica y del periodo crítico para el se-
gundo método de Ziegler-Nichols . . . . . . . . . . . . . . . . . 283
7.6. Respuesta del sistema del ejemplo 7.5.1: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 288
7.7. Sistema del ejemplo 7.5.2 . . . . . . . . . . . . . . . . . . . . . . 290
7.8. Respuesta del sistema del ejemplo 7.5.2: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 292
7.9. Efecto de la adición de un polo sobre el lugar de las raíces . . . . 293
7.10. Efecto de la adición de un cero sobre el lugar de las raíces . . . . 293
7.11. Lugar de las raíces para el sistema del ejemplo 7.5.3 . . . . . . . . 294
7.12. Aplicación del criterio del módulo y del argumento para el ejemplo
7.5.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
7.13. Respuesta del sistema del ejemplo 7.5.3: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 296
7.14. Sistema del ejemplo 7.5.5 . . . . . . . . . . . . . . . . . . . . . . 299
7.15. Distribución de polos y ceros del ejemplo 7.5.5 . . . . . . . . . . 299
7.16. Esquema de control por computador del ejemplo 7.5.5 . . . . . . 300
7.17. Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los
controladores a) continuo y b) discretizado equivalente para T = 0.2301
7.18. Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los
controladores a) continuo y b) discretizado equivalente para T = 0.05302
7.19. Resultados del sistema del ejemplo 7.5.6 en bucle cerrado con el
controlador en tiempo continuo y el controlador discreto equivalente 303
7.20. Respuesta del sistema del ejemplo 7.5.7: (a) en tiempo continuo y
(b) muestreado con T = 0.2 segundos . . . . . . . . . . . . . . . 305
7.21. Sistema de control del ejemplo 7.5.6 . . . . . . . . . . . . . . . . 306
7.22. Lugar de las raíces para el sistema del ejemplo 7.5.6 . . . . . . . . 306

XXIII
7.23. Respuesta del sistema del ejemplo 7.5.6: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 308
7.24. Estructura teórica de un control PID discreto . . . . . . . . . . . . 309
7.25. Estructura de un PID discreto real . . . . . . . . . . . . . . . . . 310
7.26. Estructura del control (a) y equivalente discreto del sistema (b). . . 312
7.27. Estructura típica de un lazo de control . . . . . . . . . . . . . . . 315
7.28. Respuesta del sistema del ejemplo 7.6.1: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 319
7.29. Respuesta del sistema del ejemplo 7.6.2: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 324
7.30. Respuesta del sistema del ejemplo 7.6.3: (a) en bucle abierto y (b)
en bucle cerrado con el controlador diseñado . . . . . . . . . . . . 327

8.1. Diagrama de bloques de un sistema realimentado en estado . . . . 330


8.2. Concepto de observador de estado . . . . . . . . . . . . . . . . . 338
8.3. Realimentación del estado . . . . . . . . . . . . . . . . . . . . . 345
8.4. Respuesta del sistema del ejemplo 8.4: (a) sin realimentación y (b)
sistema realimentado . . . . . . . . . . . . . . . . . . . . . . . . 348
8.5. Transformación de un sistema a otra representación de estado para
controlarlo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
8.6. Realimentación de estado con ajuste de ganancia . . . . . . . . . 352
8.7. Realimentación de estado con integrador adicional . . . . . . . . 355
8.8. Realimentación de estado con integrador adicional (2) . . . . . . . 357
8.9. Sistema con observador del estado . . . . . . . . . . . . . . . . . 360
8.10. Observador de orden completo del estado . . . . . . . . . . . . . 361
8.11. Observador del estado . . . . . . . . . . . . . . . . . . . . . . . . 362
8.12. Sistema con observador completo y realimentación del estado . . 363
8.13. Observador de orden reducido . . . . . . . . . . . . . . . . . . . 370
8.14. Observador de estado de un sistema sometido a perturbaciones . . 373

9.1. Relación entre la variación δx y la diferencial d x . . . . . . . . . 393


9.2. Familia de trayectorias de las ecuaciones 9.7.11 . . . . . . . . . . 407
9.3. Trayectoria u ∗ = +1 seguida por u ∗ = −1 . . . . . . . . . . . . . 407
9.4. Trayectoria u ∗ = −1 seguida por u ∗ = +1 . . . . . . . . . . . . . 408

10.1. Sistema con retardo . . . . . . . . . . . . . . . . . . . . . . . . . 409


10.2. Esquema de control con a) el retardo dentro del bucle, y b) fuera
del bucle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
10.3. Esquema del predictor de Smith. El término G(s)(1−e−sT ) predice
la salida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
10.4. La respuesta está retardada pero el comportamiento es el correcto.
En los dos sistemas la respuesta es la misma . . . . . . . . . . . . 411

XXIV
10.5. Diagrama de Simulink del sistema con retardo y del sistema con
retardo y predictor de Smith . . . . . . . . . . . . . . . . . . . . 412
10.6. Respuesta escalón del sistema con retardo y del sistema con retardo
y predictor de Smith . . . . . . . . . . . . . . . . . . . . . . . . . 412
10.7. Diagrama de Simulink del sistema con retardo y predictor de Smith 413
10.8. Respuesta escalón del sistema con retardo y predictor de Smith . . 414
10.9. Esquema general de linealización por realimentación . . . . . . . 414
10.10.Esquema de un depósito . . . . . . . . . . . . . . . . . . . . . . 415
10.11.Respuesta escalón en t = 1 del sistema ḣ(t) + αh(t) = 0 . . . . . 416
10.12.Error de seguimiento (trayectorias de ë + k2 ė + k1 e = 0) . . . . . 419
10.13.Esquema de control del sistema del ejemplo 10.4.2 . . . . . . . . 422
10.14.Sistema del ejemplo 10.4.3 . . . . . . . . . . . . . . . . . . . . . 422
10.15.Respuestas temporales de h y de ḧpara el sistema del ejemplo 10.4.3 424
10.16.Sistema del ejemplo 10.5.1 . . . . . . . . . . . . . . . . . . . . . 428
10.17.Respuesta del sistema del ejemplo 10.5.1 para a = 1 . . . . . . . 428
10.18.Respuesta del sistema del ejemplo 10.5.1 para a ligeramente dis-
tinta de la que se supone . . . . . . . . . . . . . . . . . . . . . . 429
10.19.Diagrama de Simulink del sistema en bucle cerrado . . . . . . . . 431
10.20.La no linealidad expresada por medio de a) una tabla y b) de splines 435
10.21.Respuesta escalón del sistema con el controlador diseñado . . . . 435
10.22.Evolución del I S E al variar K p para K i = 1 . . . . . . . . . . . . 436
10.23.Esquema del péndulo invertido . . . . . . . . . . . . . . . . . . . 439
10.24.Esquema Simulink de bucle cerrado del ejemplo 10.7.1 . . . . . . 439
10.25.Esquema Simulink del bloque del sistema del ejemplo 10.7.1 . . . 439
10.26.Esquema Simulink del bloque del controlador del ejemplo 10.7.1 . 440
10.27.Resultados de la simulación del ejemplo 10.7.1 . . . . . . . . . . 440
10.28.Resultados de la simulación del ejemplo 10.7.1 . . . . . . . . . . 441
10.29.Obtención de x̃ a partir de s (acotación de x̃) . . . . . . . . . . . . 442
10.30.Acotación en x ˜(i) . . . . . . . . . . . . . . . . . . . . . . . . . . 443
10.31.Condición de deslizamiento . . . . . . . . . . . . . . . . . . . . . 444
10.32.Interpretación gráfica de la condición de deslizamiento . . . . . . 444
10.33.Castañeteo (chattering) como resultado de una conmutación im-
perfecta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
10.34.Resultados de la simulación para el ejemplo 10.7.2 para η = 0.1 . 447
10.35.Resultados de la simulación para el ejemplo 10.7.2 para η = 1 . . 447
10.36.Resultados del chattering de la simulación para el ejemplo 10.7.2 448
10.37.Diagrama de Simulink de bucle cerrado del ejemplo 10.7.2 . . . . 448
10.38.Diagrama de Simulink del bloque del modelo del ejemplo 10.7.2 . 448
10.39.Diagrama de Simulink del bloque del controlador del ejemplo 10.7.2449

XXV
XXVI
1. INTRODUCCIÓN

1.1. Introducción

Uno de los problemas con los que tradicionalmente se tienen que enfrentar
aquellos que trabajan en el control o en la identificación de procesos estriba en la
existencia de una diversidad de herramientas matemáticas para estudiar, analizar y
diseñar dichos sistemas.
Por ejemplo, si deseamos analizar y controlar un sistema continuo el sistema
podemos modelarlo en cuanto a su respuesta temporal mediante la utilización de la
función de transferencia o mediante la técnica de variables de estado. Además el
sistema puede ser controlado en tiempo continuo o en tiempo discreto lo que reque-
rirá la utilización de transformadas de Laplace, para el caso de tiempo continuo,
o transformadas en Z, para el caso de tiempo discreto. Otras veces nos interesará
estudiar la respuesta en frecuencia del sistema para lo que nos basaremos en el es-
tudio de la respuesta en régimen permanente del sistema (en base a la función de
transferencia).
También nos encontramos con frecuencia el caso en el que la utilización de las
técnicas anteriores no explica suficientemente el comportamiento del sistema, bien
por que este está sometido a perturbaciones no modelables o bien porque nuestro
conocimiento del mismo no es suficientemente preciso. En estas situaciones se ha-
ce necesario la utilización de técnicas probabilísticas que nos ayuden a caracterizar
estas señales o sistemas.
Así que es muy frecuente que en el estudio y análisis de un sistema nos encon-
tremos con la presencia de diferentes herramientas matemáticas que nos permiten
caracterizar, analizar y diseñar un sistema de control de forma que tengamos en
cuenta los diferentes efectos presentes en el sistema.
El objetivo básico de este capítulo es introducir las herramientas matemáticas
que se utilizan normalmente para analizar y sintetizar los sistemas de control de-
terministas en el dominio del tiempo, tanto en tiempo discreto como en tiempo
continuo, así como en frecuencia. Y se introducirá la herramienta matemática bá-
sica para analizar los comportamientos probabilísticos presentes en procesos o en
señales.
2 1. Introducción

1.2. Concepto de transformada

A la hora de analizar y diseñar los sistemas de control para una amplia variedad
de procesos, nos encontramos con la necesidad de resolver ecuaciones diferencia-
les o integro-diferenciales con el fin de conocer la respuesta que el proceso nos va
a dar ante determinadas entradas o acciones de control. Estas ecuaciones diferen-
ciales pueden resolverse de forma directa o bien se pueden resolver convirtiéndolas
en otro tipo de ecuaciones de más fácil resolución. Existen una serie de métodos
operacionales que nos permiten transformar problemas de resolución de ecuacio-
nes diferenciales lineales o problemas de resolución de ecuaciones en diferencias
en problemas de tipo polinómico mucho más fáciles de tratar.
Entre las transformaciones más frecuentemente utilizadas para la solución de
ecuaciones diferenciales ordinarias de tipo lineal están las transformaciones de tipo
integral, y entre estas una muy ampliamente utilizada en control es la denominada
transformada de Laplace.
Para el caso de los sistemas con ecuaciones en diferencias se utiliza la denomi-
nada transformada z.

1.3. Transformada de Fourier

Dada una función real f (t), se define la transformada de Fourier de la función


f (t) como:
Z +∞
F(ω) = F[ f (t)] = f (t)e− jωt dt (1.3.1)
−∞

siendo ω una frecuencia variable, −∞ ≤ ω ≤ +∞, expresada en (rad/s). La


función f (t) se dice que tiene transformada de Fourier si la integral 1.3.1 existe
para todos los valores de ω. Son condiciones suficientes para que la integral exista
que la función f (t) sólo tenga un número finito de discontinuidades, máximos y
mínimos a lo largo de un intervalo finito de tiempo, y que la función f (t) sea
absolutamente integrable, es decir que
Z +∞
| f (t)|dt < ∞ (1.3.2)
−∞

El término exponencial complejo de la transformada 1.3.1 puede expresarse,


aplicando la fórmula de Euler, como

e− jωt = cos(ωt) − j sin(ωt) (1.3.3)

Si sustituimos en la expresión de la transformada de Fourier 1.3.1 el término


exponencial por 1.3.3, obtenemos que,
1.4. Transformada de Laplace 3

Z +∞
F(ω) = f (t)[cos(ωt) − j sin(ωt)]dt
−∞
Z +∞ Z +∞
= f (t) cos(ωt)dt − j f (t) sin(ωt)dt (1.3.4)
−∞ −∞

En esta expresión 1.3.4 de la transformada de Fourier se puede apreciar la exis-


tencia de dos términos, uno de ellos real y otro imaginario, que denominaremos
R(ω) e I (ω) respectivamente, con lo que F(ω) vendrá dado por

F(ω) = R(ω) + j I (ω) (1.3.5)


En la ecuación 1.3.5 se puede apreciar que la transformada de Fourier F(ω) es
una función compleja de la variable ω. Para todo valor de la variable ω, tendremos
un valor de F(ω) que tiene un módulo, |F(ω)|, y un argumento, 6 F(ω).

p
|F(ω)| = R 2 (ω) + I 2 (ω)
 
−1 I (ω)
6 F(ω) = arctan (1.3.6)
R(ω)

Si representásemos en una gráfica los valores |F(ω)| para cada ω obtendríamos


lo que se denomina el espectro de magnitudes de la señal f (t), y si hiciésemos lo
mismo para el argumento 6 F(ω) obtendríamos lo que se conoce como espectro
de fase de la señal f (t).

1.3.1. Transformada inversa de Fourier


La transformada inversa es una operación que nos permite obtener la función
original f (t) o partir de la transformada de Fourier F(ω). Esta operación viene
dada por la siguiente expresión
Z +∞
−1 1
f (t) = F [F(ω)] = F(ω)e jωt dω (1.3.7)
2π −∞

1.4. Transformada de Laplace

Dada una función real f (t) tal que f (t) < 0 para t < 0 se define la transfor-
mada unilateral de Laplace de la función f (t) como:
Z ∞
F(s) = L[ f (t)] = f (t)e−st dt (1.4.1)
0
4 1. Introducción

Existe también la transformada bilateral de Laplace, en la que los límites de


integración se extienden desde −∞ a +∞, pero dado que no se suele utilizar en
ingeniería de control, no se va a tratar. La transformada unilateral de Laplace, que
en adelante y por simplificar denominaremos como transformada de Laplace, existe
siempre que la integral 1.4.1 converja, para lo que es condición necesaria y sufi-
ciente que se verifique que:
Z ∞
| f (t)e−σ t |dt < ∞ (1.4.2)
0

para σ finito y real.


Dada una transformada de Laplace de una función f (t), al conjunto de todos
los números complejos s para los cuales la integral 1.4.1 existe se le denomina
región de convergencia.
Dada una función f (t), si existe la transformada de Laplace L(s) y la particu-
larizamos para aquellos complejos en los que s = jω obtenemos que
Z ∞
F(s)|s= jω = F( jω) = f (t)e− jωt dt (1.4.3)
0

si además la función f (t) = 0 para t < 0, la ecuación 1.4.3 es igual a la transfor-


mada de Fourier F(ω) de la función f (t) (compárese con la expresión que veíamos
en 1.3.1). Es decir
F(ω) = F(s)|s= jω (1.4.4)
Esto nos indica que podemos obtener la transformada de Fourier, F(ω) de una
función f (t) (siempre que el valor de esta función para t < 0 sea cero), a partir
de su transformada de Laplace, F(s), sin más que sustituir en la expresión de la
transformada de Laplace la variable s por jω.

1.4.1. Propiedades de la transformada de Laplace


La transformada de Laplace presenta una serie de propiedades muy útiles que
hace que pueda ser considerada como un operador que convierte una función tem-
poral f (t) en el dominio del tiempo en una función F(s) de variable compleja s.
Veamos estas propiedades:

1. Linealidad
Una propiedad muy importante de la transformada de Laplace es que es un
operador lineal. Dadas dos funciones f (t) y g(t) y una constante k se verifica
que:

L[ f (t) + g(t)] = L[ f (t)] + L[g(t)] (1.4.5)


1.4. Transformada de Laplace 5

L[k f (t)] = kL[ f (t)] (1.4.6)

2. Diferenciación
La transformada de Laplace de la diferencial de una función f (t) se puede
expresar de la siguiente manera:

d
L[ f (t)] = s F(s) − lim f (t) = s F(s) − f (0) (1.4.7)
dt t→0

siendo F(s) la transformada de la función f (t) y f (0) el límite de la función


f (t) cuando t tiende a cero. En general, para derivadas de orden superior se
tiene la siguiente expresión:

dn n n−1 n−2 d dn−1


L[ f (t)] = s F(s)−s f (0)−s f (0)+. . .+ f (0) (1.4.8)
dt n dt dt n−1

3. Integración
La transformada de Laplace de la integral de una función f (t) con respecto
al tiempo es la transformada de Laplace de la función dividida por s, es decir:

Z t
F(s)
L[ f (τ )dτ ] = (1.4.9)
0 s

y si se generaliza para integraciones de órdenes superiores

Z t1 Z t2 Z tn
F(s)
L[ ... f (τ )dτ dτ1 . . . dτn ] = (1.4.10)
0 0 0 sn

4. Desplazamiento en el tiempo
Un desplazamiento en el tiempo de valor a de la función f (t), equivale en
el dominio complejo a multiplicar la transformada de Laplace de la función
F(s), por e−sa ; esto es:

L[ f (t − a)u 0 (t − a)] = e−sa F(s) (1.4.11)

donde u 0 (t −a) representa la función escalón unidad desplazada en el tiempo


a unidades.
6 1. Introducción

5. Teorema del valor inicial


Si la transformada de Laplace de la función f (t) es F(s), entonces

lim f (t) = lim s F(s) (1.4.12)


t→0 s→∞

si existe el límite en el tiempo.

6. Teorema del valor final


Si la transformada de Laplace de la función f (t) es F(s), y si s F(s) es
analítica en la parte derecha del plano-s y sobre el eje imaginario, entonces

lim f (t) = lim s F(s) (1.4.13)


t→∞ s→0

Este teorema es de gran utilidad en el análisis y diseño de sistemas de control


ya que nos dice el valor final que tomará una función en el dominio del
tiempo conociendo el valor que toma su transformada de Laplace para s = 0.

7. Desplazamiento complejo
La transformada de Laplace de una función f (t) multiplicada por e∓αt ,donde
α es una constante, equivale a reemplazar en la transformada de Laplace de
la función, F(s), s por s ± a es decir

L[e∓αt f (t]] = F(s ± a) (1.4.14)

8. Convolución real
Sean F1 (s) y F2 (s) las transformadas de Laplace de las funciones f 1 (t) y
f 2 (t), respectivamente, y f 1 (t) = 0 y f 2 (t) = 0 para t < 0 entonces

F1 (s)F2 (s) = L[ f 1 (t) ∗ f 2 (t)] (1.4.15)


Z t
= L[ f 1 (τ ) f 2 (t − τ )dτ ] (1.4.16)
Z0 t
= L[ f 2 (τ ) f 1 (t − τ )dτ ] (1.4.17)
0

en esta expresión el símbolo ∗ denota la operación convolución en el dominio


del tiempo.
1.4. Transformada de Laplace 7

1.4.2. Transformadas de Laplace de algunas funciones


Ejemplo 1.4.1: La transformada de Laplace de la función escalón unitario u 0 (t)
que se define como

1, t > 0
f (t) = u 0 (t) = (1.4.18)
0, t < 0
se obtiene como
Z ∞ ∞ 1
1
F(s) = L[u 0 (t)] = u 0 (t)e−st dt = − e−st = (1.4.19)
0 s 0 s
Ejemplo 1.4.2: La transformada de Laplace de la función exponencial f (t) =
e−αt para t ≥ 0 se obtiene como

Z
−αt

1 −(s+α)t ∞ 1
F(s) = L[e ]= e−αt e−st dt = − e = (1.4.20)
0 s+α 0 s+α
En la tabla se pueden ver las transformadas de algunas de las funciones más
usuales.

f (t) L(s)
δ(t) 1
1
u 0 (t) s
1
t s2
e−at 1
s+a
te−at 1
(s+a)2
n!
tn, t ≥ 0 s n+1
, n = 1, 2, . . .
t n e−at , t ≥0 n!
(s+a)n+1
, n = 1, 2, . . .
ω
sin(ωt) (s 2 +ω2 )
s
cos(ωt) (s 2 +ω2 )
ω
e−at sin ωt (s+a)2 +ω2
e−at cos ωt s+a
(s+a)2 +ω2

1.4.3. Transformada inversa de Laplace


La operación de obtener la función f (t) a partir de la transformada de Laplace
F(s) se le denomina transformada inversa de Laplace, y se escribe
8 1. Introducción

f (t) = L−1 [F(s)] (1.4.21)

La transformación integral inversa de Laplace se define como


Z c− j∞
1
f (t) = F(s)est ds (1.4.22)
2π j c+ j∞

donde c es una constante real mayor que la parte real de todas las singularidades
de F(s) . Esta integral se evalúa en el plano-s complejo. Desde el punto de vista
del control de procesos esta forma de obtener la transformación inversa resulta
extremadamente costosa y resulta poco práctica. Por ello se acude o a la utilización
de tablas de transformadas de Laplace o a la expansión en fracciones parciales.

Expansión en fracciones parciales

En la mayor parte de las aplicaciones de control, no es necesario recurrir a la


inversión integral dada por 1.4.22 para obtener la transformada inversa de Laplace.
Normalmente tanto las ecuaciones diferenciales como las soluciones de las mismas
en los problemas de control suelen tener la forma de funciones racionales en s, del
tipo
N (s)
F(s) = (1.4.23)
D(s)
donde N (s) y D(s) son polinomios en s. Se supone que el grado del polinomio
N (s) del numerador en s es menor o igual que el grado del polinomio D(s) del
denominador.
Esta expresión puede escribirse en la siguiente forma

N (s)
F(s) = (1.4.24)
sn + a1 s n−1 + . . . + an−1 s + an

donde los coeficientes ai son coeficientes reales. A las raíces del polinomio N (s)
se les denominan ceros y a las raíces del denominador D(s) se les denominan polos
de dicha función F(s).
La idea básica del método de la expansión en fracciones parciales consiste en
descomponer el polinomio F(s) en una suma de fracciones simples de forma que
éstas sean las transformadas de funciones simples y conocidas, de forma que para
cada fracción resulte muy fácil calcular la transformada inversa. Como la trans-
formada de Laplace es un operador lineal, una vez calculadas las transformadas
inversas de las fracciones simples, para obtener la transformada inversa de la fun-
ción F(s) basta con sumar las transformadas inversas de las fracciones simples.
Veamos los diferentes casos que se pueden presentar.
1.4. Transformada de Laplace 9

Caso de polos simples y reales Si todos los polos de D(s) son simples y
reales, entonces la ecuación 1.4.24 toma la siguiente forma
N (s)
F(s) = (1.4.25)
(s + s1 )(s + s2 ) . . . (s + sn )
y en ella ∀i 6= j, si 6 = s j . Descomponiendo la expresión 1.4.25 en fracciones
parciales obtenemos

A1 A2 An
F(s) = + + ... + (1.4.26)
(s + s1 ) (s + s2 ) (s + sn )
donde los coeficientes A1 , . . . , An se obtienen como
 N (s) 
Ai = (s + si ) (1.4.27)
D(s) s=−si
Obsérvese que cada una de estas fracciones simples son las transformadas de
Laplace de funciones de tipo exponencial con exponente −si y coeficiente Ai .

Caso de polos múltiples y reales Si algunos de los polos de D(s) son múl-
tiples, entonces la ecuación 1.4.24 toma la siguiente forma
N (s)
F(s) = (1.4.28)
(s + s1 )(s + s2 ) . . . (s + sk−1 )(s + sk )n−k+1
y en ella sk tiene un orden de multiplicidad de n − k + 1. Descomponiendo la
expresión 1.4.28 en fracciones parciales obtenemos
A1 A2 Ak−1
F(s) = + + ... + +
(s + s1 ) (s + s2 ) (s + sk−1 )
A k1 A k2 Akn−k
+ + + ... + (1.4.29)
(s + sk ) (s + sk ) 2 (s + sk )n−k+1
donde los coeficientes A1 , . . . , Ak−1 correspondientes a los polos simples se ob-
tienen igual que en el caso anterior, y los correspondientes al polo multiple se
obtienen como

 
n−k+1 N (s)

Akn−k = (s + sk ) (1.4.30)
D(s) s=−sk
 
d
n−k+1 N (s)
Akn−k+1 = (s + sk ) (1.4.31)
ds D(s) s=−sk
...  
1 dn−k
n−k+1 N (s)
A k1 = (s + sk ) (1.4.32)
(n − k)! ds n−k D(s) s=−sk
10 1. Introducción

Caso de polos complejos conjugados La expansión en fracciones parcia-


les vista para el caso de polos simples y reales, es válida también para el caso de
polos complejos conjugados de la forma s = −σ + jw y s = −σ − jw. En este
caso los coeficientes A−σ + jw y A−σ − jw se obtienen de la siguiente forma

 N (s) 
A−σ + jw = (s + σ − jw)
(1.4.33)
D(s) s=−σ + jw
 N (s) 
A−σ − jw = (s + σ + jw) (1.4.34)
D(s) s=−σ − jw

Ejemplo 1.4.3: Supongamos la siguiente función

2s + 3
F(s) = (1.4.35)
s(s + 1)(s + 3)
que si la expandimos en fracciones parciales quedará de la siguiente forma

A1 A2 A3
F(s) = + + (1.4.36)
s (s + 1) (s + 3)
Los coeficientes vendrán determinados por

  2s + 3

A1 = =
s F(s) =1
s=0 (s + 1)(s + 3) s=0
  2s + 3 1
A2 = (s + 1)F(s) = =−
s=−1 s(s + 3) s=−1 2
  2s + 3 1
A3 = (s + 3)F(s) = =−
s=−3 s(s + 1) s=−3 2

con lo que

1 − 12 − 12
F(s) = + + (1.4.37)
s (s + 1) (s + 3)
y su transformada inversa será la función

1 1
f (t) = 1 − e−t − e−3t (1.4.38)
2 2
Ejemplo 1.4.4: Supongamos la siguiente función

s 2 + 3s
F(s) = (1.4.39)
(s + 1)3
que si la expandimos en fracciones parciales quedará de la siguiente forma
1.4. Transformada de Laplace 11

A1 A2 A3
F(s) = + + (1.4.40)
(s + 1) (s + 1) 2 (s + 1)3
Los coeficientes vendrán determinados por

 

A3 = (s + 1)3 F(s) = s 2 + 3s = −2
s=−1 s=−1
d  

A2 = (s + 1)3 F(s) = 2s + 3 =1
ds s=−1 s=−1
1 d2  3
 2
A1 = (s + 1) F(s) = =1
2! ds 2 s=−1 2! s=−1
con lo que

1 1 −2
F(s) = + + (1.4.41)
(s + 1) (s + 1) 2 (s + 1)3
y su transformada inversa será la función

f (t) = e−t + te−t − t 2 e−t (1.4.42)

1.4.4. Resolución de ecuaciones diferenciales


Una de las propiedades más útiles de la transformada de Laplace es la simpli-
cidad con la que se pueden resolver ecuaciones diferenciales lineales. Veamos un
ejemplo.
Ejemplo 1.4.5: Supongamos un cierto sistema, cuya ecuación diferencial es la
siguiente
d2 x dx
2
+2 +1=0 (1.4.43)
dt dt
sabemos además que para dicho sistema los valores de x y ẋ para t = 0 son
respectivamente x(0) = 1 y ẋ(0) = 0, y queremos obtener la salida x(t) que dará
el sistema 1.4.43.
Aplicando la propiedad de la transformada de Laplace de la derivada tendremos
lo siguiente
[s 2 X (s) − sx(0) − ẋ(0)] + 2[s X (s) − x(0)] + 1 = 0
si ahora sustituimos x(0) y ẋ(0) por su valor, nos quedará

[s 2 X (s) − s] + 2[s X (s) − 1] + 1 = 0


s 2 X (s) + 2s X (s) = s + 1
s+1
X (s) =
s(s + 2)
12 1. Introducción

Expandiendo en fracciones parciales esta expresión

A1 A2
X (s) = + (1.4.44)
s (s + 2)
Los coeficientes vendrán determinados por
  (s + 1) 1
A1 = s X (s) = =
s=0 (s + 2) s=0 2
  s + 1 1
A2 = (s + 2)X (s) = =
s=−2 s s=−2 2
con lo que
1 1
2 2
X (s) = +
s (s + 2)
y su transformada inversa será la solución de la ecuación diferencial 1.4.43 para
las condiciones iniciales que se han supuesto, es decir

1
x(t) = (1 + e−2t ). (1.4.45)
2

1.4.5. Operador derivada


Es frecuente la utilización del operador derivada, que se suele representar por
el símbolo p o D, aunque aquí se usará el primero de ellos,

d
py(t) = y(t) (1.4.46)
dt
Utilizando este símbolo, una ecuación diferencial de orden n
dn d n−1 d
y(t)+a 1 y(t) + . . . + a n−1 y(t) + an y(t) =
dt n dt n−1 dt (1.4.47)
d n−1 d
= b1 n−1 u(t) + . . . + bn−1 u(t) + bn u(t)
dt dt
puede expresarse en forma polinómica
p n y(t)+a1 p n−1 y(t)+. . .+an−1 py(t)+an y(t) = b1 p n−1 u(t)+. . .+bn−1 pu(t)+bn u(t)
(1.4.48)
es decir
[ p n + a1 p n−1 + . . . + an−1 p + an ]y(t) = [b1 p n−1 + . . . + bn−1 p + bn ]u(t)
A( p)y(t) = B( p)u(t)
B( p)
y(t) = u(t) (1.4.49)
A( p)
Este operador tiene la ventaja de trabajar directamente en el dominio del tiem-
po, lo que en ocasiones resulta útil. Este operador es frecuentemente utilizado en
los métodos clásicos de resolución de ecuaciones diferenciales ordinarias.
1.5. Transformada z 13

1.5. Transformada z

La transformada de Laplace puede utilizarse para resolver sistemas de ecua-


ciones diferenciales lineales ordinarias en tiempo continuo. Un método operacio-
nal equivalente para la resolución de sistemas de ecuaciones en diferencias de tipo
lineal en tiempo discreto, es el método basado en la transformada z.
Dada una secuencia de números x(k), se define la transformada z de dicha
secuencia como

X
X (z) = Z[x(k)] = x(k)z −k (1.5.1)
k=0

La transformada z definida según la ecuación 1.5.1 se conoce como la trans-


formada z unilateral, y en ella se supone que x(k) = 0 para todo k < 0.

1.5.1. Propiedades de la transformada en z


1. Linealidad.
Una propiedad muy importante de la transformada z es que es un operador
lineal. Dadas dos funciones f (k) y g(k) y una constante α se verifica que:

Z[ f (k) + g(k)] = Z[ f (k)] + Z[g(k)] (1.5.2)

y
Z[α f (k)] = αZ[ f (k)] = α F(z) (1.5.3)

2. Traslación real.
La transformada z de una función f (k) desplazada n en el tiempo se puede
expresar de la siguiente manera:

Z[ f (k − n)] = z −n F(z) (1.5.4)

X
n−1
Z[ f (k + n)] = z n [F(z) − f (k)z −k ] (1.5.5)
k=0

3. Traslación compleja.
Si f (t) tiene la transformada z, F(z), entonces la transformada z de e−at f (t)
se define como F(zeaT ), lo que se conoce como teorema de la traslación
compleja.
14 1. Introducción

X
n−1 X
n−1
−at −akT −k
Z[e f (t)] = f (kT )e z = f (kT )(zeaT )−k = F(zeaT )
k=0 k=0
(1.5.6)

4. Teorema del valor inicial .


Si la transformada z de la función f (k) es F(z), y si el lim F(z) existe,
z→∞
entonces el valor inicial f (0) de f (k) viene dado por

lim f (k) = lim F(z) (1.5.7)


k→0 z→∞

5. Teorema del valor final.


Si la transformada z de la función f (k), con f (k) = 0 para k < 0, es F(z),
y dicha función F(z) tiene todos sus polos dentro del círculo unitario, con la
posible excepción de un polo simple en z=1. Entonces el valor final de f (k),
puede obtenerse como

lim f (k) = lim [(1 − z −1 )F(z)] (1.5.8)


k→∞ z→1

6. Multiplicación por a k .
Si la transformada z de la función f (k) es F(z), entonces la transformada z
de a k f (k) se obtiene como

Z[a k f (k)] = F(a −1 z) (1.5.9)

7. Convolución real.
Sean F1 (z) y F2 (z) las transformadas z de las funciones f 1 (t) y f 2 (t), res-
pectivamente, entonces

F1 (z)F2 (z) = Z[ f 1 (k) ∗ f 2 (k)] (1.5.10)


X N
= Z[ f 1 (k) f 2 (N − k)] (1.5.11)
k=0
XN
= Z[ f 2 (k) f 1 (N − k)] (1.5.12)
k=0

En esta expresión el símbolo ∗ denota la operación convolución en el domi-


nio del tiempo (discreto).
1.5. Transformada z 15

Una excepción a este caso se produce si una de las dos funciones es el retardo
integral e N T s , ya que en este caso

Z[e−N T s F(s)] = Z[e−N T s ]Z[F(s)] = z −N F(z) (1.5.13)

1.5.2. Transformadas z de algunas funciones

Ejemplo 1.5.1: La transformada z de la función escalón unitario u 0 (k) que se


define como


1, k > 0
f (k) = u 0 (k) = (1.5.14)
0, k < 0

se obtiene como


X
F(z) = Z[u 0 (k)] = 1z −k
k=0

X
= z −k = 1 + z −1 + z −2 + . . .
k=0
1 z
= −1
= (1.5.15)
1−z z−1

Ejemplo 1.5.2: La transformada z de la función exponencial f (k) = e−αk para


k ≥ 0 se obtiene como


X
F(z) = Z[e−αk ] = e−αkT z −k
k=0
−αT −1
= 1+e z + e−α2T z −2 + . . .
1
=
1− e−αT z −1
z
= (1.5.16)
z − e−αT

En la tabla se pueden ver las transformadas de algunas de las funciones más


usuales.
16 1. Introducción

f (k) F(z)
δ(k) 1
δ(k − n) z −n
z
u 0 (k) z−1
z
ak z−a
z
k (z−1)2
z2
k+1 (z−1)2
(sin α)z
sin(αk) z 2 −(2 cos α)z+1
z 2 −(cos α)z
cos(αk) z 2 −(2 cos α)z+1

1.5.3. La transformada z inversa


La transformada z en los sistemas de tiempo discreto juega un papel equivalente
al de la transformada de Laplace en los sistemas de tiempo continuo. De forma
similar a lo que ocurría en aquella, es necesario después de operar en el plano z
para resolver la ecuación en diferencias convertir dicha solución al dominio del
tiempo. En este caso, al pasar de nuevo al dominio del tiempo lo que obtendremos
como resultado es la correspondiente secuencia en el tiempo f (k).
En el caso de la transformada z inversa, la secuencia que se obtiene sólo está
definida en el tiempo en los instantes de muestreo, por lo que resulta una única
secuencia f (k) pero que puede corresponder al muestreo de un número infinito de
funciones f (t).
Un método muy usual de obtener la transformada z inversa es por medio de la
expansión en fracciones parciales.

Expansión en fracciones parciales

En la mayor parte de las aplicaciones de control, tanto las ecuaciones en di-


ferencias como las soluciones de las mismas suelen tener la forma de funciones
racionales en z, del tipo
N (z)
F(z) = (1.5.17)
D(z)
donde N (z) y D(z) son polinomios en z. Se asume que el grado del polinomio
N (z) del numerador en z es menor o igual que el grado del polinomio D(z) del
denominador.
1.5. Transformada z 17

Esta expresión puede escribirse en la siguiente forma


N (z)
F(z) = (1.5.18)
zn + a1 z n−1 + . . . + an−1 z + an
donde los coeficientes ai son coeficientes reales.
La idea básica del método de la expansión en fracciones parciales ya se co-
mento para el caso de la transformada de Laplace, y consiste en descomponer el
polinomio F(z) en una suma de fracciones simples de forma que estas sean las
transformadas de funciones simples y conocidas, de forma que para cada fracción
resulte muy fácil calcular la transformada inversa. Veamos los diferentes casos que
se pueden presentar.

Caso de polos simples y reales Si todos los polos de D(z) son simples y
reales, y hay por lo menos un cero en el origen, entonces se expande F(z)
z
de la
siguiente forma
F(z) A1 A2 An
= + + ... + (1.5.19)
z (z − z 1 ) (z − z 2 ) (z − z n )
donde los coeficientes A1 , . . . , An se obtienen como
 F(z) 
Ai = (z − z i ) (1.5.20)
z z=z i

Se realiza la expansión de la función F(z)/z en vez de la función F(z) para


que las fracciones simples de la expansión queden de la misma forma que para las
expansiones en fracciones parciales en s.

Caso de polos múltiples y reales Si los polos de D(z) son múltiples, en-
tonces la ecuación 1.5.18 toma la siguiente forma
N (z)
F(z) = (1.5.21)
(z − z 1 )2
y en ella z 1 tiene un orden de multiplicidad de 2. Descomponiendo la expresión
1.5.21 en fracciones parciales obtenemos
F(z) A1 A2
= + (1.5.22)
z (z − z 1 )2 (z − z 1 )
donde los coeficientes A1 y A2 correspondientes al polo multiple se obtienen como
 F(z) 
A1 = (z − z 1 )2 (1.5.23)
z z=z 1
d F(z) 
A2 = (z − z 1 )2 (1.5.24)
dz z z=z 1
18 1. Introducción

Ejemplo 1.5.3: Dada la transformada z

z(1 − e−αT )
F(z) = (1.5.25)
(z − 1)(z − e−αT )

siendo α constante y T el periodo de muestreo, obtener la transformada z inversa


por el método de descomposición en fracciones.
La expansión en fracciones viene dada por la siguiente expresión

F(z) A1 A2
= + (1.5.26)
z (z − 1) (z − e−αT )

y si aplicamos la expresión 1.5.20 tenemos que


 F(z) 
A1 = (z − 1)
=1
z z=1
 F(z) 
A2 = (z − e−αT ) −αT = 1 (1.5.27)
z z=e

con lo que la expansión en fracciones parciales quedará en la forma

F(z) 1 1
= + (1.5.28)
z (z − 1) (z − e−αT )

o lo que es lo mismo

1 1
F(z) = −1
+ −αT
(1.5.29)
(1 − z ) (1 − e z −1 )

y si vamos a una tabla de transformadas z veremos que


h 1 i
Z −1 = 1
(1 − z −1 )
h 1 i
Z −1 = e−αkT (1.5.30)
(1 − e−αT z −1 )

y por tanto su transformada z inversa será

f (kT ) = 1 − e−αkT , k = 0, 1, 2, . . . (1.5.31)

1.5.4. Resolución de ecuaciones en diferencias


Así como la transformada de Laplace nos permitía resolver ecuaciones dife-
renciales lineales, la transformada z nos va a permitir resolver ecuaciones en dife-
rencias. Veamos un ejemplo.
1.5. Transformada z 19

Ejemplo 1.5.4: Supongamos un cierto sistema, cuya ecuación en diferencia es la


siguiente
x(k + 2) + 2x(k + 1) + x(k) = 0 (1.5.32)
sabemos además que para dicho sistema los valores de x para k = 0 y k = 1 son
respectivamente x(0) = 1 y x(1) = 0, y queremos obtener la salida x(k) que dará
el sistema 1.5.32.
Aplicando la propiedad de la traslación real de la transformada z tendremos lo
siguiente

[z 2 X (z) − z 2 x(0) − zx(1)] + 2[z X (z) − zx(0)] + X (z) = 0

si ahora sustituimos x(0) y x(1) por su valor nos quedará

[z 2 X (z) − z 2 ] + 2z X (z) + X (z) = 0


z 2 X (z) + 2z X (z) + X (z) = z 2
z2
X (z) =
z 2 + 2z + 1
z2
X (z) =
(z + 1)2

Expandiendo en fracciones parciales esta expresión

X (z) A1 A2
= + (1.5.33)
z (z + 1)2 (z + 1)
Los coeficientes vendrán determinados por
 X (z) 

A1 = (z + 1)2 = z = −1
z z=−1 z=−1
d X (z) 
A2 = (z + 1)2 =1
dz z z=−1

y su transformada inversa será la solución de la ecuación en diferencias 1.5.32 para


las condiciones iniciales que se han supuesto, es decir

x(k) = −(−1)k−1 + (−1)k (1.5.34)

1.5.5. Operador retardo


También en el caso de los sistemas en tiempo discreto es frecuente la utilización
de un operador de transferencia que nos permita expresar en forma polinómica la
relación en el tiempo de la señal de entrada con la de salida. En los sistemas de
20 1. Introducción

tiempo discreto dicho operador es el denominado operador adelanto, que se suele


representar por el símbolo q,

qu(k) = u(k + 1) (1.5.35)


o su inverso el operador retardo,

q −1 u(k) = u(k − 1) (1.5.36)

Utilizando este operador una ecuación en diferencias de orden n quedará en la


siguiente forma

y(k)+a1 y(k − 1) + . . . + an−1 y(k − (n − 1)) + an y(k − n)


(1.5.37)
=b1 u(k − 1) + . . . + bn−1 u(k − (n − 1)) + bn u(k − n)

puede expresarse en forma polinómica

y(k)+a1 q −1 y(k) + . . . + an−1 q −(n−1) y(k) + an q −n y(k)


(1.5.38)
=b1 q −1 u(k) + . . . + bn−1 q −(n−1) u(k) + bn q −n nu(k)

es decir
y(k) = [b1 q −1 + . . . + bn−1 q −(n−1) + bn q −n ]u(k)
A(q −1 )y(k) = B(q −1 )u(k)
(1.5.39)
B(q −1 )
y(k) = u(k)
A(q −1 )

El operador retardo es equivalente a z −1 según (1.5.4), aunque en distinto do-


minio. Este operador al igual que el operador derivada tiene la ventaja de trabajar
directamente en el dominio del tiempo, lo que en ocasiones resulta útil. Este ope-
rador es frecuentemente utilizado en las técnicas de identificación de sistemas.

1.6. Procesos estocásticos o aleatorios

Si bien las transformaciones matemáticas vistas en las secciones anteriores nos


permiten analizar y resolver con facilidad las ecuaciones diferenciales o en dife-
rencias de una amplia gama de sistemas dinámicos, no resultan sin embargo sa-
tisfactorias para analizar y explicar una parte importante de la respuesta de una
gran parte de sistemas. La parte de los sistemas para la que estas herramientas ma-
temáticas no resultan suficientes es aquella ligada a un comportamiento sujeto a
una cierta incertidumbre o expresado en otros términos, sujeto a una naturaleza no
determinista.
Aquella parte de los sistemas cuya naturaleza es no determinista la modelare-
mos por medio de técnicas probabilísticas.
1.6. Procesos estocásticos o aleatorios 21

1
x(t)

−1

−2

−3

−4

−5
1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3
t

Fig. 1.1: Función aleatoria

1.6.1. Variable aleatoria y proceso aleatorio

La mayor parte de los sistemas físicos que aparecen en la naturaleza tien-


den a mostrar una cierta variabilidad con respecto a un cierto valor que podría-
mos denominar de referencia. Supongamos que después del proceso de fabrica-
ción de una cierta pieza mecánica procedemos a pesarla, observamos que aun-
que el peso teórico que la pieza debe de tener es de 10.00 gramos, sin embar-
go el peso final que se obtiene en todas las piezas no es exactamente ese, sino
9.99; 9.98; 10.01; 10.00; . . .. Si tratásemos de conocer si la próxima pieza que va-
mos a fabricar pesa exactamente 10.00, la respuesta la podríamos dar en términos
probabilísticos pero no podríamos asegurar un valor determinado. El peso de esta
pieza es lo que se denomina una variable aleatoria.

Parece claro que esta variabilidad en el valor de una variable concreta, que
hemos denominado variable aleatoria, puede asociarse también a funciones tem-
porales que son las que más nos interesan desde el punto de vista del control de
procesos. Un posible ejemplo de una función aleatoria en el tiempo es el que se
muestra en la figura 10.1.

No resulta difícil de intuir que, para un cierto sistema físico, aunque se repita el
experimento un número considerable de veces la salida del mismo no va a ser exac-
tamente igual. El conjunto de todas las posibles funciones en el tiempo que pueden
ser observadas, pertenecen a lo que denominaremos proceso aleatorio o estocás-
tico, y que representaremos por {u(t)}. Una función particular de dicho conjunto,
la expresaremos como u(t) y la denominaremos función muestra. El valor de una
función muestra en un instante de tiempo determinado, t1 , es una variable aleatoria
y lo representaremos por u(t1 ). En un proceso estocástico, tenemos por lo tanto,
para cada instante de tiempo una variable aleatoria.
22 1. Introducción

x1(t) 5

−5
0 0.5 1 1.5 2 2.5 3
t
5
x2(t)

−5
0 0.5 1 1.5 2 2.5 3
t
5
x3(t)

−5
0 0.5 1 1.5 2 2.5 3
t

Fig. 1.2: Proceso aleatorio

h i
t1 : u 1 (t1 ), u 2 (t1 ), . . . , u n (t1 )
h i
t2 : u 1 (t2 ), u 2 (t2 ), . . . , u n (t2 ) (1.6.1)

Como ya se ha indicado para el caso de variables aleatorias, la forma habitual


de estudiar magnitudes sometidas a incertidumbre se realiza por medio de la defi-
nición y obtención de propiedades estadísticas de dichas variables. Para el caso de
procesos estocásticos estas propiedades estadísticas de u(t) deben obtenerse con
respecto a un conjunto de datos observados simultáneamente (figura 1.2).

Tipos de procesos estocásticos

Existen diferentes tipos de procesos estocásticos de aparición más o menos


frecuente en problemas de ingeniería. Veamos algunos de ellos:

1. Procesos aleatorios continuos.


Son aquellos en los que las variables aleatorias u(t1 ) y u(t2 ) pueden tomar
cualquier valor dentro de un cierto rango de posibles valores.
1.6. Procesos estocásticos o aleatorios 23

1.5

0.5
x1(t)

−0.5

−1

−1.5

−2
0 0.5 1 1.5 2 2.5 3
t

Fig. 1.3: Proceso aleatorio discreto

Al igual que en el caso de las señales para las que definíamos los concep-
tos de transformada de Laplace y transformada en z, estos procesos pueden
estudiarse en tiempo continuo o discreto.

2. Procesos aleatorios discretos.


Son aquellos en los que las variables aleatorias u(t1 ) y u(t2 ) sólo toman cier-
tos valores (aislados entre sí) dentro de un cierto rango de valores (aunque
el número de estos posibles valores puede ser infinito). Al igual que en caso
anterior estos procesos pueden estudiarse en tiempo continuo o en tiempo
discreto. En el ejemplo de la figura 1.3 se muestra un proceso aleatorio de
tipo binario, es decir que el rango de posibles valores es sólo de dos, que
aquí son +1, −1.

3. Procesos aleatorios no deterministas.


Son procesos aleatorios en los cuales no pueden predecirse los valores fu-
turos que tomará el proceso a partir de los valores anteriores que hemos
observado de dicho proceso. La mayoría de los procesos aleatorios naturales
son no deterministas, bien porque los mecanismos que los generan no son
observables o bien porque son extremadamente complejos.
En el caso de que los valores futuros de una función pudieran predecirse
exactamente a partir de la observación de valores pasados del proceso esta-
ríamos ante un proceso determinista.

4. Procesos estacionarios.
Para una variable aleatoria de un proceso estocástico, que caracterizamos por
medio de parámetros estadísticos, es posible definir una función de densidad
de probabilidad. Si las funciones de densidad conjunta y marginales de di-
cho proceso no dependen de la elección del origen de tiempos, entonces el
proceso se dice que es estacionario. La principal ventaja que presentan estos
24 1. Introducción

procesos es que los parámetros estadísticos del proceso, como por ejemplo el
valor medio, permanecen constantes a lo largo del tiempo. Si estos paráme-
tros dependen del instante de tiempo que se considere, entonces el proceso
será no estacionario.

5. Procesos ergódicos.
Algunos procesos estacionarios presentan además la propiedad de que cual-
quier conjunto de datos que se tome del proceso presenta las mismas caracte-
rísticas estadísticas que todo el proceso. Por ello, en estos procesos se puede
determinar la conducta estadística de todo el proceso examinando solamente
una muestra típica de la función. Esta propiedad resulta muy difícil de de-
mostrar en la mayoría de los casos, si bien es usual el asumirla como cierta
por las ventajas prácticas que ofrece.

1.6.2. Funciones de distribución y de densidad de


probabilidad
Un aspecto importante para poder caracterizar una variable aleatoria es la for-
ma en la que se definen los sucesos asociados con el espacio de probabilidad de-
finido para dicha variable aleatoria. Estos sucesos pueden definirse de diferentes
formas, si bien aquí utilizaremos un método de uso muy generalizado, como son
los conceptos de función de distribución de probabilidad y de densidad de proba-
bilidad.

Función de distribución
Sea X una variable aleatoria y x un valor permitido cualesquiera que puede
tomar la variable aleatoria X dentro del rango admisible de valores para dicha
variable aleatoria.
Se define la función de distribución de probabilidad como la probabilidad de
que el suceso que la variable aleatoria observada X tome un valor menor o igual
que el valor x. Es decir,

F(x) = Pr (X ≤ x) (1.6.2)
Esta función de distribución de probabilidad es una probabilidad y por tanto
debe satisfacer las propiedades básicas exigidas por la definición de probabilidad.
Estas restricciones que F(x) debe cumplir pueden resumirse en:

1. 0 ≤ F(x) ≤ 1, −∞ < x < ∞.

2. F(−∞) = 0 y F(∞) = 1.

3. F(x) es no decreciente para x creciente.


1.6. Procesos estocásticos o aleatorios 25

F(x) F(x)

1 1

0 x 0 x1 x2 x3 x
(a) (b)

Fig. 1.4: Ejemplos de funciones de distribución

4. Pr (x1 < X ≤ x2 ) = F(x2 ) − F(x1 ).

En la figura 1.4 se muestran dos posibles funciones de distribución, una en la


que la variable aleatoria puede tomar todos los posibles valores dentro del rango
[−∞, ∞] (a) y otra donde sólo algunos valores son posibles (b).

Función de densidad
Aunque la función de distribución permite describir de forma completa el mo-
delo de probabilidad para una variable aleatoria, no es la forma de trabajo más
conveniente para la mayoría de los cálculos que se requieren en nuestro caso. Por
ello se suele utilizar la derivada de la función de distribución d F(x)
dx
, en vez de uti-
lizar F(x) directamente. A esta derivada se le denomina función de densidad de
probabilidad, cuando existe, y se define como

F(x + 4x) − F(x) d F(x)


f (x) = lim = (1.6.3)
4x→0 4x dx
El significado de la función de densidad de probabilidad es inmediato a partir
de la ecuación 1.6.3,

d F(x) = f (x)d x = Pr (x < X ≤ x + d x) (1.6.4)

es decir, la ecuación 1.6.4 nos indica la probabilidad de que el valor observado de


la variable aleatoria X este en el rango de valores x y x + d x.
Las propiedades de la función de densidad de probabilidad (que no es una
probabilidad puesto que puede tomar valores superiores a 1), se pueden resumir
en:

1. f (x) ≥ 0, −∞ < x < ∞.


R∞
2. −∞ f (x)d x = 1.
Rx
3. F(x) = −∞ f (y)dy.
26 1. Introducción

f(x) f(x)

0 x 0 x1 x2 x3 x
(a) (b)

Fig. 1.5: Ejemplos de funciones de densidad

R x2
4. x1 f (x)d x = Pr (x1 < X ≤ x2 ).

En la figura 1.5 se muestran algunos ejemplos de funciones de densidad de


probabilidad, el caso (a) corresponde a una función de densidad continua y el caso
(b) a una función de densidad discreta.

1.6.3. Parámetros para describir un proceso estocástico


Como ya se ha comentado, para caracterizar los procesos estocásticos se uti-
lizan parámetros estadísticos asociados con las variables aleatorias, u(t), en dife-
rentes instantes de tiempo, t. Si el proceso que se estudia es estacionario, estos
parámetros permanecen constantes para todo t, por lo que basta con un único con-
junto de parámetros para caracterizarlo.
Aún suponiendo que el proceso sea estacionario, estos parámetros no resultan
en muchas ocasiones fáciles de obtener dado que requieren la repetición del expe-
rimento lo que en muchos sistemas no resulta viable dada la lentitud o dificultad
para repetirlo en las mismas condiciones. Nos encontramos, en estos casos, con que
sólo disponemos de un experimento para poder estimar los parámetros del proceso
estocástico. En este tipo de situación la única posibilidad consiste en extraer pro-
medios temporales. Estos promedios temporales son razonables si el proceso es
ergódico, en cuyo caso la media temporal de un proceso ( en un tiempo infinito) es
equivalente a la media temporal de un cierto conjunto muestral.
En muchos casos, y salvo que exista una razón clara para impedirlo, se supone
que el proceso es ergódico y que por lo tanto el promedio en un tiempo finito resulta
una aproximación razonable del parámetro estadístico que nos interesa conocer.
Supuesta esta condición de ergodicidad en el proceso, veamos como se pueden
obtener algunos de los parámetros estadísticos que nos interesan:
1.6. Procesos estocásticos o aleatorios 27

Media o esperanza
El valor medio o valor esperado de una variable aleatoria X se define a partir
de la función de densidad de probabilidad f (x) como
Z ∞
x = E[x] = x f (x)d(x) (1.6.5)
−∞

al símbolo E[] se le denomina valor esperado o esperanza matemática de X . Esta


definición es teórica y se supone que la distribución de probabilidad de la variable
aleatoria es conocida. Sin embargo con frecuencia la función de distribución de la
variable no es conocida y por tanto la función de densidad de probabilidad tampoco
se conoce. En estos casos suele utilizarse la media muestral, es decir el valor
medio obtenido experimentalmente en una o varias realizaciones de dicha variable
aleatoria. Por ejemplo si hemos observado xi (t), i = 1 . . . N realizaciones de una
variable aleatoria x a lo largo de un cierto periodo de tiempo, para un instante de
tiempo dado t1 el valor medio se define como

1 X
N
x(t1 ) = xi (t1 ) (1.6.6)
N i=1
Para una cierta función de una variable aleatoria g(x), puede definirse también,
y de forma sencilla la esperanza matemática de dicha función:
Z ∞
E[g(x)] = g(x) f (x)d(x) (1.6.7)
−∞

Momentos
Una función g(x) de importancia considerable es g(x) = x n , ya que nos con-
duce al concepto genérico de momento de una variable aleatoria. Se define, el mo-
mento de orden n de una variable aleatoria X como
Z ∞
n
E[x ] = x n f (x)d(x) (1.6.8)
−∞

De todos los posibles momentos definibles para una variable aleatoria, los dos
de mayor importancia práctica son los momentos de primer y de segundo orden.
El momento de primer orden, n = 1, es el valor medio que ya hemos comentado
anteriormente y el de segundo orden, n = 2, se denomina valor cuadrático medio.
Z ∞
2
E[x ] = x 2 f (x)d(x) (1.6.9)
−∞

Cuando es obtenido experimentalmente para un cierto t1 en un conjunto de


realizaciones una variable aleatoria toma la expresión
28 1. Introducción

1 XX
N N
2
E[x (t1 )] = 2 xi (t1 )x j (t1 ) (1.6.10)
N i=1 j=1

Momentos centrados
Estos momentos pueden definirse de forma que sean momentos centrados en
torno al valor medio, para ello se definen como:
Z ∞
n
E[(x − x) ] = (x − x)n f (x)d(x) (1.6.11)
−∞
De todos los momentos centrados, el más conocido y utilizado es el de segundo
orden, también conocido como la varianza de una variable aleatoria x. Se define
como la esperanza matemática de (x − x)2 y viene dada por:
Z ∞
2 2
σ = E[(x − x) ] = (x − x)2 f (x)d(x) (1.6.12)
−∞
En el caso de que la variable aleatoria sea un vector el concepto se conoce
como matriz de covarianza

Z ∞ Z ∞
T
E[(x − x)(x − x) ] = ... (x − x)(x − x)T p(x)d(x1 ) . . . d(xn )
x1 =−∞ xn =−∞
(1.6.13)
En muchos casos suele utilizarse la varianza o covarianza muestral, es decir
el valor obtenido experimentalmente en una o varias realizaciones de dicha variable
aleatoria. Por ejemplo si hemos observado xi (t), i = 1 . . . N realizaciones de una
variable aleatoria x a lo largo de un cierto periodo de tiempo, para dos instantes de
tiempo dados t1 y t2 el valor de la covarianza se define como

C x x (t1 , t2 ) = cov(x(t1 ), x(t2 ))


1 X
N
= (xi (t1 ) − x(t1 ))(xi (t2 ) − x(t2 )) (1.6.14)
N i=1

a esta expresión se le conoce también como función de autocovarianza.


Una propiedad muy útil que presenta la expresión de la varianza es que

E[(x − x)2 ] = E[x 2 − 2x x + x 2 ]


= E[x 2 ] − 2E[x]x + x 2
= E[x 2 ] − 2x 2 + x 2
= E[x 2 ] − x 2 (1.6.15)
1.6. Procesos estocásticos o aleatorios 29

0.8

0.6

0.4

0.2
Rxx_1_2

−0.2

−0.4

−0.6

−0.8

−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t

Fig. 1.6: Función de autocorrelación

1.6.4. Función de autocorrelación


Esta función se define como,

Rx x (t1 , t2 ) = E[x(t1 )x(t2 )]


1 X
N
= xi (t1 )xi (t2 ) (1.6.16)
N i=1

y se puede observar que esta expresión y la de la autocovarianza están relacionadas


por medio de la siguiente relación

C x x (t1 , t2 ) = Rx x (t1 , t2 ) − x(t1 )x(t2 ) (1.6.17)

que en el caso de que el proceso estocástico tenga media cero ambas expresiones
coinciden.
Si observamos la definición de la función de autocorrelación, esta representa
el valor esperado del producto de las variables aleatorias x(t1 ) y x(t2 ), que corres-
ponden a muestras de un mismo proceso en dos instantes diferentes de tiempo.
Este valor esperado dependerá de lo rápidamente que varíe la salida del proceso.
Intuitivamente se puede ver que si suponemos dos instantes de tiempo cercanos, la
salida habrá variado poco por lo que el valor de la correlación será alto; mientras
que si se toman dos instantes de tiempo muy separados entre sí, probablemente el
valor de la correlación será bajo.
Esta función de autocorrelación tiene una gran importancia práctica en la iden-
tificación de sistemas como se verá más adelante.
Si la función de autocorrelación Rx x (t1 , t2 ) es función sólo de la diferencia de
tiempo τ = t2 − t1 con independencia del valor del tiempo t1 que se tome, se puede
expresar entonces como:

Rx x (t, t + τ ) = Rx x (τ ) (1.6.18)
30 1. Introducción

0.9

0.8

0.7

0.6

0.5
Rxx

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 16 18
n

Fig. 1.7: Función de autocorrelación

Ejemplo 1.6.1: Supongamos una señal simple de tipo triangular, y veamos como
se puede obtener las funciones de autocorrelación y autocovarianza mediante el uso
de la función xcorr y xcov de Matlab. Definimos el vector x de nueve elementos y
aplicamos a continuación la función xcorr tal y como se muestra a continuación,
» x=[0.1 0.2 0.3 0.4 0.5 0.4 0.3 0.2 0.1]’;
» Rxx=xcorr(x,x);
» plot(Rxx)
en la figura 1.7 se muestra la función de autocorrelación generada para dicha señal.
Se procede de forma similar para obtener la función de autocovarianza
» x=[0.1 0.2 0.3 0.4 0.5 0.4 0.3 0.2 0.1]’;
» Cxx=xcov(x,x);
» plot(Cxx)
y en la figura 1.8 se muestra la función de autocovarianza generada para dicha
señal.

Propiedades de la función de autocorrelación


La función de autocorrelación es una función par de τ , ya que

Rx x (τ ) = Rx x (−τ ) (1.6.19)

La función de autocorrelación presenta un valor máximo para τ = 0, es decir

Rx x (0) ≥ Rx x (τ ) (1.6.20)
1.6. Procesos estocásticos o aleatorios 31

0.9

0.8

0.7

0.6

0.5

0.4

0.3
Cxx

0.2

0.1

−0.1

−0.2

−0.3

−0.4

−0.5
0 2 4 6 8 10 12 14 16 18
n

Fig. 1.8: Función de autocovarianza

El valor de la autocorrelación para τ = 0 es igual al valor cuadrático me-


dio del proceso, que en el caso de proceso con media cero coincide con la
varianza del proceso, es decir

Rx x (0) = x 2
= E[x 2 (t)]
Z T
1
= lim [x(t)]2 dt (1.6.21)
T →∞ 2T −T

1.6.5. Función de correlación cruzada


Teniendo en cuenta la definición de la función de autocorrelación es posible
definir una función que nos de la correlación entre dos variables aleatorias de dos
procesos estocásticos diferentes x(t) e y(t). Esta función se denomina función de
correlación cruzada, Rx y (t, t + τ ), y se define como

Rx y (t, t + τ ) = E[x(t)y(t + τ )]
1 X
N
= xi (t).yi (t + τ ) (1.6.22)
N i=1
Si en esta definición se supone que ambos procesos son estacionarios conjunta-
mente, entonces la función de correlación cruzada dependerá sólo de la diferencia
de tiempo τ . Puede ocurrir que los procesos estocásticos sean individualmente es-
tacionarios, pero que no lo sean conjuntamente, en cuyo caso la expresión de la
función de correlación cruzada dependerá de t además de τ .
32 1. Introducción

Si además de estacionarios los procesos estocásticos son ergódicos conjunta-


mente, el valor de la función de correlación cruzada puede obtenerse a partir de la
correlación de un par de muestras, mediante un promedio temporal, es decir:
Z T
1
Rx y (τ ) = lim [x(t)y(t + τ )]dt (1.6.23)
T →∞ 2T −T

La interpretación de la función de correlación cruzada es similar a la de la


autocorrelación, en el sentido de que nos da información de cuanto dependen dos
variables aleatorias entre sí.
De forma análoga a la definición de la función de correlación cruzada entre
las variables aleatorias x(t) e y(t), Rx y (t, t + τ ), se puede definir la función de
correlación cruzada entre y(t) y x(t), R yx (t, t + τ ).

Propiedades de la función de correlación cruzada


Las propiedades de la función de correlación cruzada presentan bastantes dife-
rencias con las de la función de autocorrelación. Estas pueden ser resumidas como
sigue:

1. El valor de las correlaciones cruzadas para τ = 0 coincide, es decir

Rx y (0) = R yx (0) (1.6.24)

aunque no tiene un significado particular y no representan valores cuadráti-


cos medios como en el caso de la función de autocorrelación.

2. Las funciones de correlación cruzadas no son por lo general funciones pares


de τ . Pero si se verifica que

Rx y (τ ) = R yx (−τ ) (1.6.25)

es decir, que desplazar x(t) en el tiempo en un sentido equivale a desplazar


y(t) en la otra dirección.

3. La función de correlación cruzada a diferencia de la función de autocorrela-


ción, no tiene porque tener un máximo de la función para τ = 0. Pero puede
demostrarse que el valor de la correlación cruzada verifica que

1
|Rx y (τ )| ≤ [Rx x (0).R yy (0)] 2 (1.6.26)

y de forma análoga para Rx y (τ ).


1.6. Procesos estocásticos o aleatorios 33

4. Si los dos procesos estocásticos son estadísticamente independientes, enton-


ces se verifica que

Rx y (τ ) = E[x(t)y(t)] = E[x(t)]E[y(t)] = x y = R yx (τ ) (1.6.27)

5. Si los dos procesos estocásticos además de ser estadísticamente indepen-


dientes, alguno de ellos tiene media cero, entonces la función de correlación
cruzada se hace cero. Lo contrario, no es necesariamente cierto salvo en va-
riables aleatorias normales y distribuidas conjuntamente.

1.6.6. Función de densidad espectral


Se denomina promedio de energía o potencia de un proceso estocástico a
Z T
1
Px = lim [x(t)]2 dt (1.6.28)
T →∞ 2T −T

Si expresamos por X (ω) la transformada de Fourier de una señal real x(t),


obtenemos la siguiente expresión
Z ∞
X (ω) = x(t)e− jωt dt (1.6.29)
−∞

y si denominamos X T (ω) a la transformada de Fourier de la señal real x(t) truncada


para valores de tiempo | t |≤ T < ∞ de forma que


x(t) | t |≤ T < ∞
x T (t) =

0 | t |> T

y aplicando el teorema de Parseval que dice que


Z ∞ Z ∞
1
f (t).g(t)dt = F(ω).G(ω)dω (1.6.30)
−∞ 2π −∞

se deduce que
Z T Z ∞
2 1
x T (t) dt = |X T (ω)|2 dω (1.6.31)
−T 2π −∞

y si sustituimos esta expresión en la que utilizábamos para definir la potencia de un


proceso estocástico 1.6.28 nos quedará que
Z ∞
1
Px = lim |X T (ω)|2 dω (1.6.32)
T →∞ 4π T −∞
34 1. Introducción

Se define entonces la densidad espectral de un proceso estocástico {x(t)} como

1
Sx x (ω) = lim |X T (ω)|2 (1.6.33)
T →∞ 2π T

con lo que la expresión de la potencia puede reescribirse de la siguiente manera


Z ∞ Z ∞
1
Px = Sx x (ω)dω = Sx x (ω)dω (1.6.34)
2π −∞ 0

1.6.7. Descripción espectral de las perturbaciones


Las propiedades de las perturbaciones a las que están sometidos la mayoría de
los sistemas reales se pueden describir con la ayuda del concepto de espectro o
densidad espectral. Este espectro indica, en principio, la distribución de la energía
de la señal entre las diferentes frecuencias.
De entre las propiedades que presenta el concepto de densidad espectral vea-
mos tres que pueden resultar de utilidad:

1. Una señal u(t) m-dimensional puede ser asociada con una función matricial
hermítica m × m Suu (ω), a la que se denomina su espectro. ( Una matriz de
coeficientes complejos A se dice hermítica si A∗ = A , donde el símbolo *
expresa la matriz traspuesta conjugada).
Estas matrices hermíticas, son matrices simétricas con autovalores reales por
lo que siempre pueden ser diagonalizadas.

2. Sea G un sistema lineal y estable. Si u(t) tiene un espectro Suu (ω) y

y(t) = G( p)u(t)

entonces

Syy (ω) = G( jω)Suu (ω)G ∗ ( jω) (1.6.35)

3. La matriz (con dimensiones m × m)


Z ∞
1
Pu = Suu (ω)dω (1.6.36)
2π −∞

es una medida de la energía total de la señal.


1.6. Procesos estocásticos o aleatorios 35

1.6.8. Espectro cruzado


Si consideramos el espectro de una señal separada en dos partes de la forma
 
y
z=  (1.6.37)
u

el espectro tendrá la forma


 
S
 yy (ω) S yu (ω)
Szz (ω) = (1.6.38)
Suy (ω) Suu (ω)

donde los bloques diagonales Syy (ω) y Suu (ω) corresponden a los espectros de las
señales y y u respectivamente. Y los bloques no diagonales se denominan espectro
cruzado entre y y u. Como resulta que Szz (ω) es una matriz hermítica tenemos que


Syu (ω) = Suy (ω) (1.6.39)
De aquí se obtiene una definición muy útil que dice que: dos señales son in-
correladas si su espectro cruzado es idénticamente cero.

1.6.9. Ruido blanco


Como resultado de la definición del concepto de densidad espectral se define
un proceso estocástico muy característico y de una gran utilidad en la identificación
de procesos, el denominado ruido blanco.
Se define como ruido blanco a un proceso estacionario con densidad espectral
constante para todas las frecuencias. Es decir

Sx x (ω) = p, −∞ ≤ ω ≤ +∞ (1.6.40)
Este proceso, se caracteriza además porque la función de autocorrelación del
mismo es una función δ de Dirac multiplicada por el valor de la densidad espectral
p, tal y como se muestra en la figura 1.9.

Rx x (τ ) = pδ(τ ) (1.6.41)
El ruido blanco tiene su energía dividida por igual entre todas las frecuencias,
esto implica una energía infinita lo que no es real. Es por tanto una señal idealizada.
Una característica notable del ruido blanco es que la historia pasada del mismo no
contiene información acerca de su valor futuro.
Esta función es ideal desde el punto de vista de la identificación de procesos
ya que al presentar densidades a todas las frecuencias constituye una señal de ex-
citación que generará respuesta por parte del proceso que se trata de identificar a
36 1. Introducción

Rxx

0 t
Sxx

0 w

Fig. 1.9: Ruido blanco ideal

Sxx

0 w

Fig. 1.10: Ruido blanco con banda limitada

todas esas frecuencias. De esta forma con una única señal de entrada podremos
conocer la respuesta del sistema que queremos identificar a todas las frecuencias
del espectro.
En realidad el ruido blanco idealmente definido no es viable físicamente ya que
necesitaríamos una energía infinita para estimular un número infinito de frecuen-
cias. Pese a ello, el concepto de ruido blanco resulta de tanta utilidad que se utiliza
una versión limitada del mismo, en el que se tiene densidad espectral constante en
una cierta banda de frecuencias y densidad cero en el resto.

1.6.10. Descripción de perturbaciones en función del ruido


blanco
Supongamos un sistema lineal y estable G( p) al que se le introduce como
entrada una señal del tipo ruido blanco e(t) de intensidad R; la salida del mismo
será:
1.6. Procesos estocásticos o aleatorios 37

v(t) = G( p)e(t) (1.6.42)


El espectro de esta señal v(t) de acuerdo con las propiedades vistas para el
espectro de un sistema lineal es el siguiente

Svv (ω) = G( jω)RG ∗ ( jω) (1.6.43)

que para el caso escalar se puede expresar como

Svv (ω) = R|G( jω)|2 (1.6.44)


Es decir, una señal descrita por un espectro Svv (ω) puede verse como la salida
de un sistema (o filtro) sometido a ruido blanco en su entrada. Esto permite mode-
lar las perturbaciones en el dominio del tiempo, en aquellos casos en los que las
perturbaciones no son ruido blanco, es decir en aquellas con una cierta estructura
o en las cuales se puede realizar ciertas predicciones con respecto al futuro a partir
de su historia anterior.
En muchos casos es posible describir las propiedades de las perturbaciones
construyendo un modelo temporal del tipo 1.6.42. Para ello puede ser interesante
comenzar a partir del espectro de la perturbación Svv (ω) y tratar de obtener un
modelo G estable y una matriz R tal que se verifique la ecuación 1.6.43.
Este problema se conoce en teoría de la señal como factorización espectral.
Para el caso escalar existe un teorema denominado teorema de la factorización
espectral que dice que:

Teorema de la factorización espectral Suponiendo que una función esca-


lar, que toma valores reales Svv (ω) ≥ 0 es una función racional de ω2 , finita para
todo ω. Existe entonces una función racional G(s), con coeficientes reales, y con
todos los polos situados estrictamente en el semiplano real negativo, y con todos
los ceros situados en el semiplano real negativo o en el eje imaginario,tal que

Svv (ω) = |G( jω)|2 = G( jω)G(− jω) (1.6.45)

Ejemplo 1.6.2: Supongamos que se desea controlar la temperatura de una habi-


tación, dicha temperatura esta sometida a las perturbaciones climáticas debidas a
la temperatura del exterior.
Una primera posibilidad para tratar de modelar dichas perturbaciones es supo-
ner que responden a una perturbación del tipo ruido blanco, pero esta suposición
no se corresponde con lo que observamos, ya que es de tipo cíclico. La perturba-
ción tiene dos ciclos básicos uno diario con T1 = 24 horas debido a las variacio-
nes día-noche y otro largo T2 = 365.24 horas debido al ciclo verano-invierno. Si
consideramos únicamente el ciclo diario, esta señal de perturbación tendría en su
π rad
espectrograma un pico en ω1 = 12 en hora .
38 1. Introducción

Esta señal de perturbación podríamos modelarla como un sistema de segundo


orden con dos polos en el eje imaginario situados en ± jω1 , es decir:

1
ω(t) = vw (t) (1.6.46)
0.1 p + ω12
donde vw (t) es un ruido blanco.
1.6. Procesos estocásticos o aleatorios 39

Bibliografía

[1] L. Ljung, System Identification: Theory for the User, Prentice Hall, 1987.

[2] L. Ljung and T. Söderstrom, Theory and Practice of Recursive Identification,


The MIT Press, 1983.

[3] T. Söderstrom and P. Stoica, System Identification, Prentice Hall, 1989.

[4] J. P. Norton, An Introduction to Identification, Academic Press, 1986.

[5] G.R. Cooper and C.D McGuillem, Probabilistic Methods of Signal and Sys-
tem Analysis, Oxford University Press, 1999.

[6] A. Papoulis, Probabilidad, variables aleatorias y procesos estocásticos, Ed.


Universitaria de Barcelona, 1980.

[7] B.C. Kuo, Automatic Control Systems, Ed. Prentice Hall, 1991.

[8] K. Ogata, Discrete-Time Control Systems, Prentice Hall International Edi-


tion, 1995.

[9] K. Ogata, Ingeniería de control moderna, Prentice Hall, 1998.

[10] E. Andrés Puente, Regulación automática, Servicio de publicaciones ETSIIM-


UPM, 1993.
40 1. Introducción
2. TÉCNICAS CLÁSICAS DE MODELADO
DE SISTEMAS

2.1. Introducción

Un problema básico en ingeniería de control y en general en muchas otras


ciencias consiste en ser capaces de predecir qué efecto tendrá una cierta acción
sobre un sistema físico. Dado que lo que se quiere es predecir una respuesta futura
del sistema, resulta necesario utilizar algún tipo de modelo que nos permita el poder
hacer esta predicción.
Existen diversos tipos de modelos, en algunos de ellos como es el caso de los
modelos a escala lo que se busca es reproducir el sistema físico real por medio de
alguna maqueta o sistema más manejable sobre el que se pueda experimentar y ex-
traer resultados. Estos modelos, aunque interesantes, no son los que más interesan
en control, sino aquellos donde las predicciones se realizan sobre un cierto modelo
matemático del sistema.
Dentro de los modelos matemáticos que se pueden utilizar para analizar los
efectos que diferentes acciones van a tener sobre el sistema podemos diferenciar
dos grandes grupos de modelos:

Modelos de entrada/salida.
En esta clase de modelos se busca una descripción matemática que exprese
la relación que existe entre la entrada del sistema y la salida del mismo. Estos
modelos no describen el funcionamiento interno del sistema, sino meramente
la relación entre la entrada y la salida. Podemos encontrarnos con sistemas
diferentes pero que presentan la misma relación entrada/salida por lo que
dan lugar al mismo modelo matemático. Estos tipos de modelos son lo que
podríamos denominar modelos clásicos.

Modelos basados en el espacio de estados.


Esta clase de modelos buscan una descripción más profunda del sistema, ya
que no sólo se caracteriza la relación entre la entrada y la salida, sino que
además se caracteriza el comportamiento de una serie de variables o magni-
tudes internas del sistema. Existen muchos sistemas en los que las magnitu-
des internas que se pueden utilizar para caracterizarlo pueden ser escogidas
42 2. Técnicas clásicas de modelado de sistemas

de diferentes formas, por lo que un mismo sistema podrá ser descrito por
diferentes modelos matemáticos. Estos tipos de técnicas han dado lugar a lo
que se ha denominado teoría moderna de control.

En este capítulo abordaremos el estudio de lo que son las técnicas clásicas de


modelado de sistemas, y en el capítulo siguiente las técnicas de modelado basadas
en el espacio de estados.

2.2. Modelos de entrada/salida

Estos tipos de modelos son lo que podríamos denominar modelos clásicos, y


dentro de ellos podemos distinguir varios tipos: modelos temporales, frecuenciales
y estocásticos. Los modelos temporales de entrada/salida se caracterizan por per-
mitir el estudio de la respuesta temporal del sistema ante una entrada cualesquiera.
El conocer la respuesta temporal del sistema nos permitirá analizar efectos tran-
sitorios de corta duración en el sistema, como son picos en la respuesta, tiempos
de subida o tiempos de establecimiento. Estos modelos temporales pueden ser mo-
delos de tiempo continuo basados en ecuaciones diferenciales o bien modelos de
tiempo discreto descritos por ecuaciones en diferencias.
Los modelos denominados frecuenciales se basan en la caracterización de la
relación entrada/salida de un sistema en régimen permanente ante entradas de tipo
sinusoidal.
Por último los modelos estocásticos más usuales suelen combinar modelos
temporales o frecuenciales deterministas y señales de ruido o perturbación que aña-
den un comportamiento estocástico al sistema y que requiere ser modelado cuando
resulta posible.

2.3. Modelos temporales

2.3.1. Conceptos básicos


Sistemas lineales invariantes en el tiempo
Los modelos de entrada/salida de los sistemas lineales responden a la siguiente
forma general,

dn dn−1
y(t) + a n−1 n−1 y(t) + . . . + a0 y(t) = (2.3.1)
dt n dt
m
d dm−1
bm m u(t) + bm−1 n−1 u(t) + . . . + b0 u(t) (2.3.2)
dt dt
donde los coeficientes ai , i = 0, 1, . . . , n − 1 y b j , j = 0, 1, . . . , m son números
reales, u(t) es la entrada al sistema e y(t) es la salida del mismo. Si estos coefi-
2.3. Modelos temporales 43

cientes ai y b j no dependen del tiempo, el sistema se dice que es invariante en el


tiempo.
Estos modelos lineales presentan varias ventajas, entre ellas y quizás la más im-
portante es la de la linealidad en la respuesta. Es decir, si α y β son dos constantes
arbitrarias y u 1 (t) y u 2 (t) son dos entradas al sistema, se verifica que si

u(t) = αu 1 (t) + βu 2 (t) (2.3.3)


entonces la salida del sistema vendrá dada por

y(t) = αy1 (t) + βy2 (t) (2.3.4)

Respuesta impulsional
Dado un sistema lineal invariante en el tiempo, que para una entrada u(t) da
una respuesta y(t), se define como respuesta impulsional del sistema la salida
g(t) que daría el sistema cuando la entrada al mismo es un impulso unitario δ(t).
Esta respuesta impulsional g(t) contiene toda la información necesaria sobre
el sistema, y se puede obtener la salida del mismo, ante cualquier entrada u(t), sin
más que realizar la convolución en el dominio del tiempo con esta señal, es decir,

y(t) = g(t) ∗ u(t) (2.3.5)


Z t
= g(τ )u(t − τ )dτ (2.3.6)
0
Z t
= u(τ )g(t − τ )dτ (2.3.7)
0

Si estamos en tiempo discreto tendríamos una secuencia {g(n)} que algunos


autores denominan secuencia de ponderación. En este caso la salida del sistema
ante una secuencia de entrada cualesquiera se obtendrá como la convolución dis-
creta entre la secuencia de respuesta impulsional y la secuencia de entrada,

X
y(n) = g(k)u(n − k) (2.3.8)
k=0

En términos generales la respuesta impulsional g(t) no resulta demasiado prác-


tica a la hora de modelar un cierto sistema ya que resulta mucho más fácil traba-
jar en el campo de Laplace, que resolver expresiones integrales que pueden ser
complejas. En el caso discreto es algo más fácil pero salvo para los sistemas cu-
ya respuesta impulsional tenga un número finito de coeficientes distintos de cero,
también resulta laborioso resolver un sumatorio que tiende a ∞.
En la figura 2.1 se puede ver que si a una entrada impulsional δ(t), la salida del
sistema es g(t), entonces, por linealidad, a una entrada aδ(t), le corresponderá una
44 2. Técnicas clásicas de modelado de sistemas

u(t) y(t)

δ(t) g(t)

t t

u(t) y(t)
g(t)

u(t) y(t)

Escalado ag(t)
aδ(t)

t t

u(t) y(t)

Desplazamiento g(t-to)
δ(t-to)

to t t

u(t) y(t) 2g(t)+g(t-to)+1.5g(t-t1)


2δ(t)
δ(t-to) 1.5δ(t-t1) Superposición

to t1 t to t1 t

Fig. 2.1: Respuesta a un impulso y a una suma de impulsos desplazados

salida ag(t). Como el sistema es invariante en el tiempo, a un impulso desplazado


δ(t − t0 ) le corresponderá una respuesta desplazada g(t − t0 ). A una entrada com-
puesta de una superposición de impulsos escalados le corresponderá una salida que
será la suma de las respuestas correspondientes.

Función de transferencia

Se define como función de transferencia de un sistema lineal e invariante en el


tiempo la transformada de Laplace (o la transformada z) de la respuesta impulsio-
nal del sistema, supuestas condiciones iniciales nulas.
Es decir, en tiempo continuo sería
2.3. Modelos temporales 45

G(s) = L[g(t)] (2.3.9)

y en tiempo discreto
G(z) = Z[g(k)] (2.3.10)

El concepto de función de transferencia resulta muy útil a la hora de determinar


la salida y del sistema ante una entrada determinada u, ya que esta viene dada por
la expresión

Y (s) = G(s)U (s) (2.3.11)

o en tiempo discreto por


Y (z) = G(z)U (z) (2.3.12)

a partir de cuyos valores en el campo complejo, desarrollando en fracciones parcia-


les y haciendo las transformadas inversas de cada una de estas fracciones parciales
resultaba simple obtener la respuesta analítica que dará el sistema en el dominio
del tiempo tal y como se vio en el capítulo anterior.
Este concepto de función de transferencia se utilizará mucho en adelante y
resulta conveniente el hacer algunas matizaciones al respecto:

La función de transferencia se ha definido para sistema lineales e invariantes


en el tiempo, por lo que no está definida en el caso de sistemas no lineales.

Para obtener la función de transferencia se han supuesto condiciones inicia-


les nulas.

La función de transferencia expresa la relación que existe entre una señal


de entrada y una señal de salida, por lo que sólo permite expresar de forma
completa la dinámica de un sistema con una entrada y una salida. Si el siste-
ma tuviese más de una entrada o salida, serían necesarias varias funciones de
transferencia para expresar todas las posibles relaciones entre cada entrada
y cada salida. En este caso estaríamos ante sistemas multivariables MIMO
(Multiple Input - Multiple Output).

La función de transferencia es independiente de la entrada al sistema.

La función de transferencia de un sistema es únicamente función racional de


s o z, y además con un denominador de grado mayor o igual que el numera-
dor, para que sea físicamente realizable.
46 2. Técnicas clásicas de modelado de sistemas

2.3.2. Modelos en tiempo continuo


Una parte muy importante de los sistemas que nos interesa controlar corres-
ponde a sistemas físicos cuya dinámica viene descrita por medio de ecuaciones
diferenciales ordinarias del tipo siguiente

dn dn−1
y(t) + a n−1 n−1 y(t) + . . . + a0 y(t) =
dt n dt (2.3.13)
dm dm−1
bm m u(t) + bm−1 n−1 u(t) + . . . + b0 u(t)
dt dt
donde u(t) es la entrada al sistema e y(t) la salida del mismo. Si suponemos con-
diciones iniciales nulas y tomamos transformadas de Laplace en ambos lados de la
ecuación 2.3.13, el resultado es

(s n + an−1 s n−1 + . . . + a0 )Y (s) = (bm s m + bm−1 s m−1 + . . . + b0 )U (s) (2.3.14)

Despejando Y (s) en la ec 2.3.14 obtenemos que

s n + an−1 s n−1 + . . . + a0
Y (s) = U (s) (2.3.15)
bm s m + bm−1 s m−1 + . . . + b0
y de aquí que la forma general de la función de transferencia G(s) para un sistema
físico descrito por una ecuación diferencial ordinaria de la forma 2.3.13 sea una
función racional de s del tipo

s n + an−1 s n−1 + . . . + a0
G(s) = (2.3.16)
bm s m + bm−1 s m−1 + . . . + b0

Ejemplo 2.3.1: Un automóvil responde a una fuerza aplicada f (t) del motor y a
una fuerza debida a la fricción ρv(t), proporcional a la velocidad v(t) del automó-
vil. La ecuación diferencial del sistema es

m v̇(t) = f (t) − ρv(t) (2.3.17)

Tomando transformadas de Laplace se obtiene

msV (s) = F(s) − ρV (s) (2.3.18)

es decir,
(ms + ρ)V (s) = F(s) (2.3.19)
y la función de transferencia de la velocidad respecto de la fuerza es
V (s) 1
= (2.3.20)
F(s) ms + ρ
2.3. Modelos temporales 47

2.3.3. Modelos en tiempo discreto


El desarrollo de los modelos de sistemas en tiempo discreto se basa en las
ecuaciones en diferencias. Es un desarrollo muy similar al que se utiliza con las
ecuaciones diferenciales ordinarias. De forma similar a aquel caso, sólo se conside-
rarán ecuaciones en diferencias lineales y de coeficientes constantes. Una ecuación
en diferencias de orden n-ésimo puede expresarse de dos formas: una en función
de los términos retardados en el tiempo y(k − 1), y(k − 2), u(k − 1), u(k − 2), ...,
etc; y otra en la que se usan términos avanzados en el tiempo y(k + 1), y(k + 2),
u(k + 1), u(k + 2), ..., etc. Ambas formas son útiles. Aquí se utilizará la basada
en los términos con retardo, y en función de ellos una ecuación en diferencias de
orden n tendrá la siguiente forma

y(k) + an−1 y(k − 1) + . . . + a0 y(k − n) =


bm u(k) + bm−1 u(k − 1) + . . . + b0 u(k − m) (2.3.21)

La ecuación 2.3.21 puede ser expresada del siguiente modo

y(k) = −an−1 y(k − 1) − . . . − a0 y(k − n)


+bm u(k) + bm−1 u(k − 1) + . . . + b0 u(k − m) (2.3.22)

Esta ecuación 2.3.22 muestra que el valor y(k), es decir la solución de la ecuación
en el instante k-ésimo, es función de n + m + 1 datos. Estos datos son: la entrada en
ese instante u(k), las m entradas anteriores u(k − 1), . . . , u(k − m) y las n salidas
anteriores del sistema y(k − 1), . . . , y(k − n).
Si la señal de entrada es causal, es decir si u(k) = 0 para k < 0, entonces
u(−1) = u(−2) = . . . = u(−m) = 0, por lo que sólo necesitaríamos conocer n
condiciones iniciales correspondientes a los valores de y(−1), y(−2), . . . , y(−n)
para poder calcular iterativamente el valor que tomará la salida del sistema en
y(0), y(1), y(2), . . . a medida que se producen las respectivas entradas de control
u(0), u(1), u(2), . . .

Ejemplo 2.3.2: Supongamos el sistema

y(k) + 0, 2y(k − 1) = u(k) (2.3.23)


suponiendo como condiciones iniciales y(−1) = −3, y que la entrada al sistema
es un escalón unitario u 0 (k).
La ecuación 2.3.25 puede expresarse como

y(k) = −0, 2y(k − 1) + u(k) (2.3.24)


48 2. Técnicas clásicas de modelado de sistemas

y de aquí que
y(0) = −0, 2y(−1) + u(0) (2.3.25)
y como la secuencia de entrada toma valores u(0) = 0, u(1) = 1, u(2) =
1, u(3) = 1, . . . tendremos que

y(0) = −0, 2y(−1) + u(0) = −0, 2.(−3) + 0 = 0.6


y(1) = −0, 2y(0) + u(1) = −0, 2.(0.6) + 1 = 0.88
y(2) = −0, 2y(1) + u(2) = −0, 2.(0.88) + 1 = 0.824
y(3) = −0, 2y(2) + u(3) = −0, 2.(0.824) + 1 = 0.835
y(4) = −0, 2y(3) + u(4) = −0, 2.(0, 835) + 1 = 0.833
... ... ... ... ...

Como se ha mostrado en el ejemplo anterior, si conocemos la expresión en


tiempo discreto de un cierto sistema resulta fácilmente calculable por métodos ite-
rativos cuál será la salida que dará el sistema en instantes de tiempo sucesivos. Sin
embargo no resulta tan fácil el extraer la solución analítica del sistema que sería la
que nos permitiese conocer el valor de la salida para un instante de tiempo cuales-
quiera sin tener que calcular todos los valores intermedios hasta dicho instante.
Si en la expresión 2.3.21 hacemos la transformada z de la misma y suponemos
condiciones iniciales nulas obtendremos la función de transferencia G(z) de este
sistema de forma similar a lo que ocurría para tiempo continuo.

bm z −m + bm−1 z −m+1 + . . . + b0
G(z) = (2.3.26)
z −n + an−1 z −n+1 + . . . + a0
En el caso del ejemplo 2.3.2, la función de transferencia queda
Y (z) 1
G(z) = =
U (z) 1 + 0.2z −1
Si reflexionamos un poco sobre las expresiones 2.3.21 y 2.3.26 nos encontra-
mos con que el proceso que hemos seguido para obtener la función de transferen-
cia en z de un sistema en tiempo continuo es simple y prácticamente inmediato.
Sin embargo nos encontramos con que salvo algunos sistemas para los cuales la
ecuación en diferencias resulta el modo natural de expresarlo, una gran mayoría
de sistemas físicos son descritos por ecuaciones diferenciales ordinarias y no por
ecuaciones en diferencias. En estos casos el proceso de obtención del modelo en
tiempo discreto del sistema resulta más complejo.

Muestreo de una señal


Una cierta señal continua que es muestreada (es decir observado su valor) cada
cierto tiempo T da como resultado de esta observación una cierta secuencia de
2.3. Modelos temporales 49

x(t) x*(t)

Fig. 2.2: Muestreador

valores {x(0), x(T ), x(2T ), x(3T ), . . .}. Esta secuencia de valores la podemos
denominar la señal muestreada y la representaremos como x ∗ (t) (figura 3.3). Esta
señal muestreada x ∗ (t), puede ser expresada matemáticamente como la suma de
una serie infinita de valores de la siguiente forma

X
x ∗ (t) = x(kT )δ(t − kT ) (2.3.27)
k=0

donde δ(t − kT ) expresa un impulso unitario en el instante t = kT . Es decir la


salida del muestreador corresponde al producto de la señal continua x(t) y el tren
de impulsos unitarios δT (t), con

X
δT (t) = δ(t − kT ) (2.3.28)
k=0

Si hacemos la transformada de Laplace de la señal muestreada 2.3.27 nos queda


que

X∞
X ∗ (s) = L[x ∗ (t)] = L[ x(kT )δ(t − kT )]
k=0

X
= L[x(kT )δ(t − kT )]
k=0

X
= x(kT )L[δ(t − kT )]
k=0
X∞
= x(kT )e−kT s (2.3.29)
k=0

Si recordamos que en el campo de Laplace, un término de la forma e−as corres-


pondía en el dominio temporal a un desplazamiento en el tiempo de la señal, es
decir a un retardo de valor a, y que por otra parte un retardo en el tiempo es lo que
denominábamos z, la relación entre ambos conceptos resulta ser
50 2. Técnicas clásicas de modelado de sistemas

x(kT) x(t)
B0

Fig. 2.3: Bloqueador de orden cero

eT s = z (2.3.30)
o
1
s= ln z (2.3.31)
T
Si sustituimos en la ecuación 2.3.29 el término s por la expresión 2.3.31

X
X ∗ (s) |s= 1 ln z = x(kT )z −k = X (z) (2.3.32)
T
k=0

Bloqueadores de señal
El proceso de bloqueo de señal es el contrario del de muestreo, y tiene por
objetivo el obtener una señal de tiempo continuo a partir de una señal de tiempo
discreto. Hay que tener en cuenta que las acciones de control que hay que ejercer
sobre los sistemas físicos reales normalmente son señales continuas.
El modo más simple de obtener una señal continua a partir de una señal de
tiempo discreto consiste en suponer que el valor en tiempo continuo de esa señal
de tiempo discreto se mantiene hasta el tiempo del proximo ciclo (este tipo de
bloqueador se denomina bloqueador de orden cero, ver figura 2.3). Es decir que la
salida del bloqueador de orden zero será

y(t) = x(kT ), kT ≤ t < (k + 1)T (2.3.33)


La expresión 2.3.33 podemos reformularla en la siguiente forma, expresando
el valor continuo de la señal en un cierto intervalo como la resta de dos señales
escalón unitario de tiempo continuo tal y como se muestra en la figura 2.4

X
y(t) = x(kT )[u 0 (t − kT ) − u 0 (t − (k + 1)T )] (2.3.34)
k=0
2.3. Modelos temporales 51

x(kT)

u (t-kT) u (t-(k+1)T)
0 0

Fig. 2.4: Señal entre muestreos

Si hacemos la transformada de Laplace de la expresión 2.3.34, ésta da como


resultado


X
L[y(t)] = Y (s) = L[x(kT )[u 0 (t − kT ) − u 0 (t − (k + 1)T )]]
k=0

X
= x(kT )L[u 0 (t − kT ) − u 0 (t − (k + 1)T )]
k=0
X∞
e−kT s e−(k+1)T s
= x(kT )[ − ]
k=0
s s

1 − e−T s X
= x(kT )e−kT s (2.3.35)
s k=0

Si comparamos la expresión 2.3.35 con la expresión de X ∗ (s) que veíamos


en la ecuación 2.3.32, se puede deducir que la salida Y (s) del sistema puede ser
expresada como

1 − e−T s ∗
Y (s) = X (s) (2.3.36)
s
Si en la expresión 2.3.36 observamos que X ∗ (s) es la transformada de Laplace
de la señal muestreada de entrada y que Y (s) es la transformada de la salida, se
puede deducir que la función de transferencia del bloqueador de orden cero será

1 − e−T s
G B OC (s) = (2.3.37)
s
Hemos visto en las secciones anteriores dos conceptos muy importantes. El
primero de ellos era que al muestrear un sistema continuo, y por medio de la trans-
formación matemática e T s = z obtenemos un modelo que nos permite analizar por
52 2. Técnicas clásicas de modelado de sistemas

medio de la transformada en z en tiempo discreto sistemas físicos continuos cuya


transformada de Laplace es fácilmente obtenible y que son muestreados.

El segundo aspecto importante que hemos visto es el proceso de bloqueo que


nos permite obtener una señal de tiempo continuo utilizable para controlar un sis-
tema físico continuo a partir de una señal de tiempo discreto. Este proceso de blo-
queo de orden cero responde al modelo matemático (1 − e−T s )/s en el campo de
Laplace.

Función de transferencia muestreada

Supongamos ahora un cierto sistema continuo al que se le introduce como en-


trada una señal muestreada, tal y como se muestra en la figura 2.5. En este caso,
aplicando la transformada de Laplace tendremos que la salida del mismo viene
dada por

Y (s) = G(s)X ∗ (s) (2.3.38)

si hacemos la antitransformada de Laplace de la expresión 2.3.38 tendremos que

y(t) = L−1 [Y (s)]


= L−1 [G(s)X ∗ (s)]
Z t
= g(t − τ )x ∗ (τ )dτ
0
Z t ∞
X
= g(t − τ ) x(τ )δ(τ − kT )dτ
0 k=0
∞ Z
X t
= g(t − τ )x(τ )δ(τ − kT )dτ
k=0 0

X∞
= g(t − kT )x(kT ) (2.3.39)
k=0
2.3. Modelos temporales 53

x(t) x*(t) y(t)


G (s)
X(z)

Fig. 2.5: Sistema continuo con entrada muestreada

Si hacemos ahora la transformada z de la expresión obtenida en 2.3.39, tendremos


que

Y (z) = Z[y(t)]
∞ X
X ∞
= [ g(i T − kT )x(kT )]z −i
i=0 k=0
∞ X
X ∞
= g( j T )x(kT )z −( j+k)
j=0 k=0
∞ X
X ∞
= g( j T )x(kT )z − j z −k
j=0 k=0


X ∞
X
−j
= g( j T )z x(kT )z −k
j=0 k=0

= G(z)X (z) (2.3.40)

en el desarrollo de la expresión 2.3.40, se ha realizado el cambio de variable j =


i − k. Por otra parte recordando que la transformada z podía entenderse como
la transformada de Laplace particularizada para s = T1 ln z. Podríamos expresar
2.3.40 de la siguiente forma

Y ∗ (s) = G ∗ (s)X ∗ (s) (2.3.41)


Una consideración importante a tener en cuenta es el efecto del muestreador a
la entrada del sistema. Supongamos ahora que nuestro sistema es el mostrado en la
figura 2.6, y supongamos que vamos a muestrear la salida y(t) del mismo

Y (s) = G(s)X (s) (2.3.42)


si muestreamos ahora la salida del sistema tenemos que

Y ∗ (s) = [G(s)X (s)]∗ = [G X (s)]∗ (2.3.43)


que formulada en términos de transformada z nos conduce a la siguiente expresión
54 2. Técnicas clásicas de modelado de sistemas

x(t) y(t) y*(t)


G (s)
Y(z)

Fig. 2.6: Sistema continuo sin entrada muestreada

Y (z) = Z[Y (s)] = Z[G(s)X (s)] = Z[G X (s)] = G X (z) (2.3.44)

Es importante resaltar aquí que no es lo mismo la transformada z del producto


de las funciones de transferencia G(s)X (s) que el producto de las transformadas
z: G(z)X (z) de las G(s) y X (s), es decir

G X (z) = Z[G(s)X (s)] 6 = Z[G(s)]Z[X (s)] = G(z)X (z) (2.3.45)

Solamente en el caso de que la entrada al sistema sea una señal impulso mues-
treada, se verificará que

G(z) = Z[G(s)] (2.3.46)


La conclusión más importante que se extrae de 2.3.45 es que dependiendo del
punto donde se muestrea un cierto sistema físico, se pueden obtener diferentes
funciones de transferencia en z, es decir diferentes ecuaciones en diferencias.

Ejemplo 2.3.3: Supongamos que deseamos obtener la función de transferencia


muestreada G(z) = Z[G(s)] de un sistema físico cuya función de transferencia
continua G(s) viene dada por la siguiente expresión

1
G(s) =
s+2
Este sistema tiene por respuesta impulsional la siguiente función

g(t) = e−2t
si este sistema lo muestreamos con periodo T obtendremos

g(kT ) = e−2kT , k = 0, 1, 2, . . .
y de esta secuencia podemos obtener la transformada z, es decir


X ∞
X ∞
X 1
G(z) = g(kT )z −k = e−2kT z −k = (e2T z)−k =
k=0 k=0 k=0
1− e−aT z −1
2.3. Modelos temporales 55

Este método de obtención de la transformada z de una función de transferen-


cia muestreada resulta bastante laborioso ya que por una parte se hace necesario
obtener la respuesta impulsional del sistema para posteriormente hacer la transfor-
mada z y obtener la suma de la serie que es la que nos daría la expresión en forma
analítica.

Obtención de la función de transferencia z


Habíamos visto que una señal muestreada daba como salida una señal que se
podía expresar en la siguiente forma


X

x (t) = x(t)δ(t − kT )
k=0

X
= x(t) δ(t − kT ) (2.3.47)
k=0

Dado que la transformada de Laplace de un impulso de Dirac era la unidad,


que un retardo a de una señal en el tiempo equivale, en el campo de Laplace, a
multiplicar por un término exponencial e−as , y hacemos la transformada de Laplace
del sumatorio de la ecuación 2.3.47 obtenemos

X∞
L[ δ(t − kT )] = L[δ(t)] + L[δ(t − T ) + L[δ(t − 2T )] + . . .
k=0
= 1 + e−T s + e−2T s + . . .
1
= (2.3.48)
1 − e−T s
Haciendo la transformada de Laplace de la señal muestreada x ∗ (t) tenemos

X
X ∗ (s) = L[x ∗ (t)] = L[x(t) δ(t − kT )] (2.3.49)
k=0

En esta ecuación se puede observar que X ∗ (s) es la transformada de Laplace


del producto de dos funciones en el dominio del tiempo. Si además recordamos
que la transformada de Laplace del producto de dos funciones tiene la siguiente
expresión

Z ∞ Z c+ j∞
−st 1
L[ f (t)g(t)] = f (t)g(t)e dt = F( p)G(s − p)d p (2.3.50)
0 2π j c− j∞
56 2. Técnicas clásicas de modelado de sistemas

Aplicando esta expresión a la ecuación 2.3.49 y teniendo en cuenta que las trans-
formadas de Laplace de x(t) es X (s) y la del sumatorio de impulsos de Dirac es la
de la expresión 2.3.48, resulta la siguiente expresión de la integral de convolución.
Z c+ j∞
∗ 1 1
X (s) = X ( p) dp (2.3.51)
2π j c− j∞ 1− e−T (s− p)
La evaluación de esta integral de convolución a lo largo de la línea c − j∞
a c + j∞ puede realizarse por el método de los residuos formando un contorno
cerrado consistente en la propia línea c − j∞ a c + j∞ y un círculo 0 de radio
infinito en el semiplano izquierdo que incluya todos los polos de X ( p). De esta
forma la ecuación 2.3.51 se podrá expresar como

Z c+ j∞
∗ 1 1
X (s) = X ( p) dp
2π j c− j∞ 1 − e (s− p)
−T
I
1 1
= X ( p) dp
2π j 1 − e (s− p)
−T
Z
1 1
− X ( p) dp (2.3.52)
2π j 0 1 − e (s− p)
−T

En el caso de que X (s) este expresado por una expresión polinómica X (s) =
N (s)
D(s)
en la que el grado del denominador sea mayor que el del numerador, el segun-
do término de la expresión 2.3.52 se hace cero. Y de aquí que
I
∗ 1 1
X (s) = X ( p) dp (2.3.53)
2π j 1 − e (s− p)
−T

Esta integral se resuelve aplicando la fórmula integral de Cauchy y es igual a


la suma de los residuos R en el contorno cerrado para los polos de X ( p), es decir
X  1


X (s) = R X ( p) (2.3.54)
1 − e−T (s− p) p= pi
Las expresiones para el cálculo de los residuos son las siguientes:

Polos simples ( p = pi ).
Para este caso el residuo del polo es
 
X ( p)
R pi = lim ( p − pi ) (2.3.55)
p→ pi 1 − e−T (s− p)

Polos múltiples ( p = p j , con orden de multiplicidad n).


Para este caso el residuo del polo con orden de multiplicidad n es
2.3. Modelos temporales 57

 
1 dn−1 n X ( p)
Rpj = lim (p − pj) (2.3.56)
(n − 1)! p→ p j d p n−1 1 − e−T (s− p)

Ejemplo 2.3.4: Supongamos un sistema en el que la señal tiene función de trans-


2
ferencia X (s) = (s+2) , en este caso tendríamos que:

" 2
#
( p+2)
R pi =−2 = lim ( p + 2)
p→−2 1 − e−T (s− p)
2
= lim
p→−2 1 − e−T (s− p)
2
=
1 − e−T s e−2T
por tanto tendremos que

2
X ∗ (s) = (2.3.57)
1− e−T s e−2T
y de esta expresión teniendo en cuenta que z = e T s obtendríamos la transformada
en z,

2
X (z) = (2.3.58)
1− z −1 e−2T
Si suponemos que el periodo de muestreo es de 0.1 segundos la transformada
z de la señal X (s) muestreada tomará el siguiente valor,

2
X (z) = (2.3.59)
1 − 0, 8187z −1
Si comparamos las curvas de respuesta en el dominio del tiempo de las señales
X (s) y X (z) se puede observar en la figura 2.7 la correspondencia existente entre
ambas.

Función de transferencia discreta equivalente


Supongamos ahora que para un cierto sistema conocemos su función de trans-
ferencia continua y que nos interesa conocer su equivalente en tiempo discreto.
Este sistema discreto equivalente que buscamos para un cierto proceso o sistema
debe tener la entrada discreta y la salida discreta. Para ello, y puesto que el sistema
real es continuo, se introduce un bloqueador de señal en la entrada del sistema y
un muestreador a la salida del mismo tal y como se ve en la figura 2.8.
Veamos que ecuaciones tenemos en el sistema. En primer lugar habíamos visto
que la ecuación del bloqueador de orden cero era
58 2. Técnicas clásicas de modelado de sistemas

Impulse Response
From: U(1)
2

1.8

1.6

1.4

1.2
Amplitude

To: Y(1)

0.8

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3

Time (sec.)
Impulse Response
From: U(1)
2

1.8

1.6

1.4

1.2
Amplitude

To: Y(1)

0.8

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3

Time (sec.)

Fig. 2.7: Respuesta en tiempo continuo y discreto

R(z) R(s) Y(s) Y(z)


BOC G (s)
p y(n)
r(n) r(t) y(t)

R(z) Y(z)
G (z)
p y(n)
r(n)

Fig. 2.8: Equivalente en tiempo discreto de un sistema en tiempo continuo


2.3. Modelos temporales 59

1 − e−T s
G B OC (s) =
s
de aquí tenemos que el conjunto bloqueador-proceso tendrá la siguiente función de
transferencia en el campo de Laplace

1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s) (2.3.60)
s
Por otra parte tenemos que la señal de entrada al sistema es una señal mues-
treada R ∗ (s), por lo que a la salida del proceso tendremos

Y (s) = G(s)R ∗ (s) (2.3.61)


si muestreamos esta señal y(s) para obtener a la salida del sistema una señal dis-
creta, la expresión nos queda de la siguiente forma

Y ∗ (s) = G ∗ (s)R ∗ (s) (2.3.62)


que en forma discreta queda como

Y (z) = G(z)R(z) (2.3.63)


Por lo tanto estamos en una situación similar al epígrafe anterior donde bus-
cábamos obtener X ∗ (s) discretizando la señal continua, con la diferencia que en
este caso lo que buscamos obtener es la función de transferencia muestreada G ∗ (s)
donde

1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s)
s
operando con esta función de transferencia tenemos que

G p (s) e−T s G p (s)


G(s) = −
s s
G (s)
es decir tenemos la respuesta de G p (s) ante entrada escalón unitario ps menos
esta misma respuesta retardada T , de lo cual si hacemos la transformada z para
esta G(s) tendremos que

 
G p (s) e−T s G p (s)
Z[G(s)] = Z −
s s
 
G p (s) e−T s G p (s)
= Z [ ] − Z[
s s
 
G p (s)
= (1 − z −1 )Z (2.3.64)
s
60 2. Técnicas clásicas de modelado de sistemas

G (s)
y si evaluamos Z[ ps ] por el método de los residuos como hicimos en el epígrafe
anterior para la función de transferencia muestreada de una señal, obtendremos la
función de transferencia discreta equivalente para dicho sistema continuo.

Ejemplo 2.3.5: Supongamos un sistema cuya función de transferencia en tiempo


3
continuo viene dada por G p (s) = (s+1) , en este caso para obtener el equivalente
discreto del sistema suponiendo que se utiliza un bloqueador de orden cero tendre-
mos que:
 
−1 G p (s)
G(z) = (1 − z )Z
s
G (s)
veamos en primer lugar la transformada z de ps para lo que utilizaremos el
método de los residuos, en este caso tenemos dos polos para la función por lo que
tendremos dos residuos:

" 3
#
p( p+1)
R pi =−1 = lim ( p + 1)
p→−1 1 − e−T (s− p)
−3
= lim
p→−1 1 − e−T (s− p)
−3
=
1 − e−T s e−T
y

" 3
#
p( p+1)
R pi =0 = lim p
p→0 1 − e−T (s− p)
3
= lim
p→0 1 − e−T (s− p)
3
=
1 − e−T s
y sustituyendo e T s por z tendremos que
 
3 3
G(z) = (1 − z −1 ) − (2.3.65)
1 − z −1 1 − z −1 e−T
Si suponemos que el periodo de muestreo es de 0.1 segundos la transformada
z del sistema tomará el siguiente valor,
 
−1 3 3
G(z) = (1 − z ) − (2.3.66)
1 − z −1 1 − 0, 3678z −1
2.3. Modelos temporales 61

Función de transferencia muestreada de un ciclo de control típico


Consideremos ahora un bucle o lazo de control típico, tal y como se muestra
en la figura 2.9, en el que se muestrea la señal de error. Podemos observar que para
este caso

E(s) = R(s) − H (s)Y (s)


Y (s) = G(s)E ∗ (s)

y de aquí que

E(s) = R(s) − G(s)H (s)E ∗ (s)


Si muestreamos esta señal de error continua, obtenemos que

E ∗ (s) = R ∗ (s) − G H ∗ (s)E ∗ (s)


y despejando E ∗ (s) tenemos

R ∗ (s)
E ∗ (s) =
1 + G H ∗ (s)
De aquí, teniendo en cuenta que Y (s) = G ∗ (s)E ∗ (s), se deduce que

G ∗ (s)R ∗ (s)
Y ∗ (s) =
1 + G H ∗ (s)
De esta expresión, y reescribiéndola en términos de la transformada z llegamos a
la siguiente expresión

G(z)R(z)
Y (z) =
1 + G H (z)
Luego la función de transferencia muestreada para un ciclo de control típico
será

Y (z) G(z)
= (2.3.67)
R(z) 1 + G H (z)
Veamos sobre este esquema básico de un bucle de control muestreado que se ha
mostrado en la figura 2.9 , el que corresponde a un bucle de control por computador
donde se incluye el efecto del muestreo de la señal de error y el bloqueo de la salida
del controlador digital para hacerla una señal continua (figura 2.10).
Veamos que ecuaciones tenemos en el sistema. En primer lugar habíamos visto
que la ecuación del bloqueador de orden cero era

1 − e−T s
G B OC (s) =
s
62 2. Técnicas clásicas de modelado de sistemas

R(s) E(s) E*(s) Y(s)


+ G (s)
p
r(t) - e(t) y(t)

H(s)

Fig. 2.9: Bucle de control típico muestreado

de aquí tenemos que el conjunto bloqueador-proceso tendrá la siguiente función de


transferencia en el campo de Laplace

1 − e−T s
G(s) = G B OC (s)G p (s) = G p (s) (2.3.68)
s
Por otra parte la señal de salida del sistema será

Y (s) = G(s)G ∗c (s)E ∗ (s) (2.3.69)

Y ∗ (s) = G ∗ (s)G ∗c (s)E ∗ (s) (2.3.70)

que expresada en términos de transformada z quedará

Y (z) = G(z)G c (z)E(z) (2.3.71)

Además del muestreo de la señal de error tenemos que

E(z) = R(z) − Y (z) (2.3.72)

luego

Y (z) = G(z)G c (z)E(z) = G(z)G c (z)[R(z) − Y (z)] (2.3.73)

y de aquí podemos deducir que la función de transferencia del lazo de control con
muestro de señal de error y bloqueo de la señal de control del regulador es

Y (z) G c (z)G(z)
= (2.3.74)
R(z) 1 + G c (z)G(z)

donde G(s) incluye al proceso y al bloqueador de orden cero.


2.3. Modelos temporales 63

Controlador Convertidor Proceso


digital D/A
E*(s) C*(s) U(s) Y(s)
+
G (z) BOC G (s)
c p
r(kT) - e(kT) c(kT) u(t) y(t)

Convertidor
A/D

Computador

a) Implementación

Convertidor Controlador Convertidor Proceso


A/D digital D/A
R(s) E(s) E*(s) C*(s) U(s) Y(s)
+
G (z) BOC G (s)
c p
r(t) - e(t) e(kT) c(kT) u(t) y(t)

b) Esquema equivalente

Fig. 2.10: Esquema típico de control por computador


64 2. Técnicas clásicas de modelado de sistemas

e(t) u(t)
G (s)
c

E(s) E*(s) C*(s) U(s)


G (z) BOC
e
e(t) e(kT) c(kT) u(t)
Convertidor Controlador Convertidor
A/D digital D/A

Fig. 2.11: Controlador discreto equivalente G e (z) de un controlador analógico


G c (s)

Discretización de un controlador analógico

Resulta evidente que la relación que existe entre la transformada de Laplace de


un sistema muestreado y la transformada z, venía dada por la expresión z = e T s .
Esta relación no es una expresión racional por lo que con ella no hay una forma
fácil e inmediata de obtener el equivalente discreto de un cierto sistema continuo.
Es necesario obtener los equivalentes discretos de G p (s) y de G c (s) lo cual es un
proceso laborioso. En muchas ocasiones además resulta poco práctico puesto que
puede ocurrir que el ajuste del regulador se realice de forma empírica, y que no dis-
pongamos de la función de transferencia del proceso G p (s), aunque si tengamos la
del controlador analógico que hemos ajustado empíricamente G c (s). En este tipo
de situaciones, en las que lo que nos interesa discretizar es únicamente el con-
trolador es frecuente utilizar técnicas aproximadas, aunque estas pueden utilizarse
también para discretizar cualquier función de transferencia.
En la figura 2.11 se puede observar la situación que se quiere tratar donde un
cierto regulador en tiempo continuo (analógico) se quiere sustituir por un conjun-
to regulador digital, muestreador y bloqueador cuyo comportamiento global sea
equivalente al del controlador analógico existente.
Existen diferentes enfoques para realizar esta transformación de una forma rá-
pida y simple (aunque no exacta). En general se suelen utilizar técnicas basadas en
aproximaciones numéricas de la ecuación diferencial que representa el función de
transferencia del controlador en tiempo continuo G c (s).
Existen dos formas básicas de abordar esta aproximación numérica a la solu-
ción de una ecuación diferencial, la integración numérica y la diferenciación nu-
mérica. Normalmente se utilizan las técnicas basadas en la integración numérica.
Supongamos que el controlador en tiempo continuo tiene la siguiente expresión
2.3. Modelos temporales 65

U (s) 1
G c (s) = = (2.3.75)
E(s) s
esta expresión corresponde a una integración de la forma
Z t
u(t) = u(t0 ) + e(t)dt (2.3.76)
t0

Las aproximaciones numéricas a esta expresión se basan en aproximar la integral


de la señal de error por un sumatorio de rectángulos o trapezoides, tal y como se
muestra en la figura 2.12.
Podemos distinguir tres aproximaciones diferentes en función de como aproxi-
memos el area de la integral del error durante un periodo de integración:

Método de Euler (I).


En este caso el área bajo la integral se aproxima por un rectángulo de base el
periodo T y altura el valor de la señal de error en el instantes n.

u(n + 1) = u(n) + T e(n) (2.3.77)

haciendo la transformada zde esta ecuación tenemos

zU (z) = U (z) + T E(z) (2.3.78)

y por lo tanto

U (z) T
G e (z) = = (2.3.79)
E(Z ) z−1

si comparamos esta expresión 2.3.79 con la del controlador analógico 2.3.75,


se puede observar que para obtener el equivalente discreto con este método
basta con substituir en la función de transferencia del controlador analógico
cada s por z−1
T
. Es decir

G e (z) = G c (s)|s= z−1 (2.3.80)


T

Método de Euler (II).


En este caso el área bajo la integral se aproxima por un rectángulo de base el
periodo T y altura el valor de la señal de error en el instante k + 1.

u(k + 1) = u(k) + T e(k + 1) (2.3.81)


66 2. Técnicas clásicas de modelado de sistemas

e(t)
xxx
xxx
xxx
xxx
xxx
xxxxxxx
xxx xxx
xxx
xxxxxxx
xxx
xxx xxx
xxx
xxxxxxx
xxx
xxx
xxx xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
xxxx
xxxxxxx
xxx
xxx
xxx
xxx
xx
xxxxxxx
xxx
xxx
xxx
t
(a)

e(t) xxx
xxx
xxx
xxx
xxx
xxx
xxxx
xxxx
xxxx xxx
xxxx
xxxx
xxxxxxx xxx
xxx
xxxx
xxxx
xxxxxxx
xxx xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx xxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx
xxx
xxxxxxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx
xxx
xxxxxxx
xxx
xxx
xxxx
xxxx
xxxxxxx xxx
xxx xx xxxxxxx
xxx xxx
xxx
xxxx
xxxx
xxxxxxx
xxx xx
xxx
xxxx
t
(b)

e(t) x
xxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxx
xxxxxxx xxx xxx
xxx xxx
xxxxxxx xxx xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx xxx
xxxxxxx xxx
xxx xxxx
xxxxxx
xxx
xxx
xxx
xxxxxxx xxx
t
(c)

Fig. 2.12: Aproximaciones a la integración


2.3. Modelos temporales 67

haciendo la transformada z de esta ecuación tenemos

zU (z) = U (z) + T z E(z) (2.3.82)

y por lo tanto

U (z) Tz
G e (z) = = (2.3.83)
E(z) z−1

si comparamos esta expresión 2.3.83 con la del controlador analógico 2.3.75,


se puede observar que para obtener el equivalente discreto con este método
basta con substituir en la función de transferencia del controlador analógico
cada s por z−1
Tz
. Es decir

G e (z) = G c (s)|s= z−1 (2.3.84)


Tz

Método trapezoidal.
También se le conoce como método de Tustin o transformación bilineal. En
este caso el área bajo la integral se aproxima promediando los valores de la
señal de error en los instantes k y k + 1 y multiplicando por el periodo T .

T
u(k + 1) = u(k) + [e(k) + e(k + 1)] (2.3.85)
2

haciendo la transformada z de esta ecuación tenemos

T
(z − 1)U (z) = (z + 1)E(z) (2.3.86)
2
y por lo tanto
U (z) T (z + 1)
G e (z) = = (2.3.87)
E(Z ) 2(z − 1)

si comparamos esta expresión 2.3.87 con la del controlador analógico 2.3.75,


se puede observar que para obtener el equivalente discreto con este método
basta con substituir en la función de transferencia del controlador analógico
cada s por T2(z−1)
(z+1)
. Es decir

G e (z) = G c (s)|s= 2(z−1) (2.3.88)


T (z+1)
68 2. Técnicas clásicas de modelado de sistemas

Controlador
analógico Proceso

R(s) E(s) U(s) Y(s)


+
G (s) G (s)
c p y(t)
r(t) - e(t) u(t)

Convertidor Controlador Convertidor Proceso


A/D digital D/A
R(s) E(s) E*(s) C*(s) U(s) Y(s)
+
G (z) BOC G (s)
e p
r(t) - e(t) e(kT) c(kT) u(t) y(t)

Fig. 2.13: Discretización de un controlador analógico

Ejemplo 2.3.6: Supongamos que se ha diseñado un controlador analógico por


métodos clásicos para un cierto sistema, y que la función de transferencia en s de
dicho sistema es

s+4
G c (s) =
s(s + 1)
aplicando la transformación bilineal tendríamos que la G e (z) del regulador discreto
equivalente será

(z + 1)[z(1 + 2T ) + (2T − 1)]T


G e (z) = G c (s) |s= 2 z−1 = (2.3.89)
T z+1 (z − 1)[z(T + 2) + (T − 2)]

2.4. Modelos frecuenciales

Cuando a un sistema lineal estable se le introduce como entrada una señal


sinusoidal de amplitud unitaria y de frecuencia variable u(t) = 1 sin ωt el sistema
responde dando a la salida una señal cuya transformada en el campo de Laplace
viene dada por

w
Y (s) = G(s) . (2.4.1)
s 2 + ω2
2.4. Modelos frecuenciales 69

Si esta señal se expande en fracciones parciales aparecen un conjunto de frac-


ciones parciales que corresponden a los polos de la función de transferencia G(s)
y los términos que corresponden a la entrada sinusoidal. Es decir

c c∗
Y (s) = . . . + + . (2.4.2)
s + jω s − jω
Si todos los polos del sistema dan una respuesta estable, su respuesta se amor-
tiguará con el tiempo por lo que la respuesta del mismo en régimen permanente
sólo retendrá los dos últimos términos del desarrollo 2.4.2. Por lo que la respuesta
en régimen permanente en el dominio del tiempo tomará la forma

y(t) = 2|c| sin(ωt + φ) = A sin(ωt + φ) (2.4.3)


donde

A = |G( jω)| (2.4.4)

I m[G( jω)]
φ = arctan = 6 G( jω) (2.4.5)
Re[G( jω)]
La respuesta frecuencial de un sistema suele representarse por medio de dos
curvas, en una de las cuales se muestra la magnitud |G( jω)| y en la otra el desfase
6 G( jω) para cada valor de ω. La respuesta frecuencial permite determinar la esta-

bilidad que tendrá un sistema en bucle cerrado a partir de la respuesta frecuencial


en bucle abierto del mismo.
Además estas curvas de respuesta pueden obtenerse de forma experimental
sin tener conocimiento del modelo matemático del sistema, sin más que excitar el
sistema con una señal sinusoidal de frecuencia variable e ir midiendo la amplitud
y el desfase de la señal sinusoidal de salida en régimen permanente.
Cuando en los diagramas representamos la amplitud escalada en decibelios
20 log |G( jω)| y la frecuencia la representamos en décadas, el diagrama resultante
se conoce como diagrama de Bode.
Este diagrama está formado por dos curvas de respuesta: una donde se repre-
senta el módulo de la respuesta del sistema para diferentes frecuencias de la señal
de entrada al mismo y otra en la que se representa el desfase de esa respuesta para
diferentes frecuencias de la señal de entrada.
Esta forma de caracterizar un sistema presenta algunas propiedades que la ha-
cen muy interesante, la primera es la facilidad con la que se pueden obtener expe-
rimentalmente estas curvas para un número considerable de sistemas (eléctricos,
electrónicos, mecánicos, etc). La segunda es de tipo interpretativo, en el sentido de
que nos permite ver o tratar todo sistema físico como si de un filtro se tratase (paso
bajo normalmente) que tenderá a amplificar o amortiguar las señales sinusoidales
70 2. Técnicas clásicas de modelado de sistemas

Bode Diagrams

From: U(1)
10

−5

−10
Phase (deg); Magnitude (dB)

−15

−20

−25

−30

−50
To: Y(1)

−100

−150

−200
−1 0 1
10 10 10

Frequency (rad/sec)

Fig. 2.14: Diagrama de bode de un sistema de segundo orden

de ciertas frecuencias que se presenten a la entrada del sistema (recordemos que


toda señal periódica podía descomponerse en serie de Fourier).

Ejemplo 2.4.1: Sea un sistema cuyo función de transferencia es

5
G(s) = (2.4.6)
+s+5 s2
veamos su respuesta en frecuencia, para ello utilizaremos la instrucción bode() de
MATLAB, tal como se muestra a continuación

num=[5];
den=[1 1 5];
sys=tf(num,den);
bode(sys);

y el resultado se puede ver en la figura 2.14.


En el proceso de razonamiento que se ha seguido para determinar la respuesta
frecuencial de un sistema hemos partido del modelo matemático en s = σ + jω, y
se ha sustituido por jω considerando que se estudia el valor en régimen permanen-
te. Resulta evidente por lo tanto que este modelo G( jω) matemáticamente deriva
del modelo temporal.
2.4. Modelos frecuenciales 71

2.4.1. Respuesta frecuencial de los sistemas muestreados


Los métodos de análisis de la respuesta frecuencial son aplicables también a los
sistemas en tiempo discreto y en términos generales el funcionamiento es similar
al caso continuo. Se aplica un señal sinusoidal de frecuencia variable al sistema
g(k), esta señal se muestrea antes de introducirla en el sistema

u(t) = sin ωt
y al muestrearla

u(n) = sin(nωT )
donde T = ω2πT (ωT es la frecuencia de muestreo utilizada en el sistema). Como
resultado el sistema generará en su salida una sucesión de impulsos.

X
n
y(n) = g(k) sin((n − k)ωT ) (2.4.7)
k=0
X
n
= I m{ g(k)e jω(n−k)T } (2.4.8)
k=0
X
n
= I m{e jωnT g(k)e− jωkT } (2.4.9)
k=0

Si suponemos que el sistema es estable para la frecuencia de muestreo ωT =



T
,entonces g(n) → 0 cuando n → ∞ por lo que para valores grandes de n
tendremos que

X X
n
∗ −skT
G (s) = g(k)e = g(k)e−skT (2.4.10)
k=0 k=0

con lo que y(n) quedará en la forma

y(n) = I m{e jωnT G ∗ ( jω)} (2.4.11)


o expresada en forma sinusoidal

y(n) = |G ∗ ( jω)| sin(ωnT + φ) (2.4.12)


donde el término φ es

φ = arg(G ∗ ( jω)) (2.4.13)


72 2. Técnicas clásicas de modelado de sistemas

Si hacemos el cambio de variable z = e jωT en la ecuación 2.4.14, en vez


del que proponíamos para obtener la función de transferencia en z (z = esT ) la
expresión quedará en la siguiente forma

y(n) = |G(z)|z=e jωT sin(ωnT + φ) (2.4.14)

y en esta expresión se puede observar que la salida del sistema es un señal sinusoi-
dal que tiene la misma frecuencia que la señal de entrada y esta desfasada respecto
a ella, y cuyo módulo depende del |G(z)|z=e jωT . Resulta clara la similitud con la
respuesta para el caso continuo que veíamos en la ecuación 2.4.3.

Ejemplo 2.4.2: Sea el sistema del ejemplo anterior cuya función de transferencia
es

5
G(s) = (2.4.15)
s2 + s + 5
supongamos que dicho sistema se muestrea, y que se obtiene el equivalente dis-
creto para periodos de muestreo T = 0, 1 y T = 1, para lo que utilizaremos la
instrucción c2d() de MATLAB. Obtendremos sus curvas de respuesta en frecuen-
cia, para ello utilizaremos de nuevo la instrucción bode() de MATLAB, tal como
se muestra a continuación

num=[5];
den=[1 1 5];
sys=tf(num,den);
sysd1=c2d(sys,0.1);
sysd2=c2d(sys,1);
bode(sys,sysd1,sysd2);

y en la figura 2.15 se puede observar las curvas correspondientes al caso de tiempo


continuo y a las que se obtienen al muestrear con T = 0.1 y T = 1 segundos
respectivamente.

2.4.2. Espectro de una señal muestrada


Consideremos que muestreamos la función f (t) cada T segundos. La función
muestreada se podrá expresar como

f ∗ (t) = f (kT ), con k = . . . , −2, −1, 0, 1, 2, . . . (2.4.16)


2.4. Modelos frecuenciales 73

Bode Diagrams

From: U(1)
20

−20
Phase (deg); Magnitude (dB)

−40

−60

−80

100

50

−50
To: Y(1)

−100

−150

−200

−250

−300
−1 0 1 2
10 10 10 10

Frequency (rad/sec)

Fig. 2.15: Diagrama de bode de un sistema de segundo orden en tiempo discreto

Esta función muestreada también se puede expresar como el producto de la


función continua y un tren de impulsos

X

f (t) = f (t) δ(t − kT ) (2.4.17)
k=−∞

Como el tren de impulsos es una función periódica, se puede representar como una
serie de Fourier
X∞ ∞
1 X j (2π n/T )t
δ(t − kT ) = e (2.4.18)
k=−∞
T k=−∞

La transformada de Fourier de la señal muestreada es


Z ∞


1 X j (2π n/T )t − jωt
F (ω) = ( f (t) e )e dt (2.4.19)
−∞ T n=−∞

Esta expresión se puede reescribir como


∞ Z ∞
∗ 1 X
F (ω) = f (t)e− j (ω−2π n/T )t dt (2.4.20)
T n=−∞ −∞
74 2. Técnicas clásicas de modelado de sistemas

f(t) F(ω)
A
F
t
←→ ω

* f(t) F(ω) 1/2π

F
1

t
← → ω
T ω

= f(t) F(ω)
=

F A/T

t
← → ω

Fig. 2.16: Señales en el dominio temporal y su correspondiente magnitud espectral

Como la transformada de Fourier de la señal continua es


Z ∞
F(ω) = f (t)e− jωt dt (2.4.21)
−∞

la relación entre las transformadas de Fourier de la señal continua y muestreada es



∗ 1 X
F (ω) = F(ω − 2πn/T ) (2.4.22)
T n=−∞

2.4.3. Teorema de muestreo


Cuando una señal continua es muestreada, excepto en el caso de una recons-
trucción ideal, parte de la información se pierde. El objetivo, cuando se muestrea,
es muestrear a una frecuencia tal que la señal de interés esté bien caracterizada y
que la cantidad de información que se pierde sea mínima.
La señal continua puede ser, en teoría, reconstruida a partir de la muestreada
La salida de un filtro pasa-bajos con un ancho de banda apropiado nos devuelve el
espectro continuo original. Según se va disminuyendo la frecuencia de muestreo, la
separación entre los sucesivos ciclos del espectro muestreado decrece. Si 2π/T <
2ωm entonces se produce el efecto de aliasing como se puede ver en la figura 2.17
2.5. Modelos estocásticos 75

F*(ω)

ωm ωs
F(ω)

ωs > 2ωm

F*(ω)

ωs < 2ωm

ωm

ωm ωs

Fig. 2.17: Efecto de reducir la frecuencia de muestreo en F ∗ (ω).

En este caso, no se puede reconstruir la señal original con un filtro paso-bajo. Este
nos lleva a que hay un límite a partir del cual no se puede reconstruir la señal:

> 2ωm (2.4.23)
T
donde ωm es la mayor frecuencia de interés en la señal original. Esta ecuación se
denomina teorema de muestreo, de Nyquist o de Shannon.

2.5. Modelos estocásticos

Un modelo genérico de sistema es el formado por un modelo determinista que


se quiere controlar sujeto a un cierto comportamiento estocástico en su salida tal y
como se muestra en la figura 2.18.
Hasta el momento nos hemos concentrado en modelos para sistemas lineales
de coeficientes constantes deterministas. Sin embargo hay una gran variedad de
procesos estocásticos cuya respuesta se modela mejor mediante una combinación
de un sistema lineal y un ruido blanco.
Este tipo de ruidos o perturbaciones es usual en los sistemas reales, donde bajo
este término se incluyen una enorme cantidad de efectos físicos existentes y que
no pueden ser modelados completamente (no uniformidad de materiales, pequeñas
variaciones de parámetros físicos, desconocimiento de otros, etc).
Desde un punto de vista práctico nos vamos a concentrar en los modelos es-
tocásticos en tiempo discreto que son los que tendrán una mayor utilidad práctica
76 2. Técnicas clásicas de modelado de sistemas

E(z) (ruido blanco)

H(z)

V(z)
U(z) Y(z)
G(z)

Parte determinística

Fig. 2.18: Modelo estocástico del sistema

desde el punto de vista de control.

2.5.1. Modelos estocásticos en tiempo discreto


Supongamos que e(n), n = . . . , −1, 0, 1, . . . es un proceso del tipo ruido blan-
co discreto.
Un grupo de procesos estocásticos muy genérico responde a unos modelos que
suelen formularse según unas formas bastante estándar. El ruido o perturbación
v(n) en el sistema podría formularse de la siguiente manera

v(n) = e(n) + h 1 e(n − 1) + h 2 e(n − 2) + . . . + h n e(n − k)


es decir responde a un modelo de la forma

V (z) = H (z)E(z)
con

X
H (z) = h(i)z −i
i=0

De forma similar teníamos que para modelar el sistema lineal de parámetros


constantes

y(k) + an−1 y(k − 1) + . . . + a0 y(k − n) =


bm u(k) + bm−1 u(k − 1) + . . . + b0 u(k − m) (2.5.1)

La ecuación 2.5.1 puede ser expresada del siguiente modo


2.5. Modelos estocásticos 77

y(k) = −an−1 y(k − 1) − . . . − a0 y(k − n)


+bm u(k) + bm−1 u(k − 1) + . . . + b0 u(k − m) (2.5.2)
que en términos de la transformada z quedaría de la siguiente forma

A(z)
Y (z) = G(z)U (z) = U (z)
B(z)
con lo que un modelo genérico de proceso estocástico es

Y (z) = G(z)U (z) + H (z)E(z) (2.5.3)


Un modelo lineal e invariante en el tiempo está completamente especificado
por la función de transferencia pero no ocurre lo mismo en un proceso estocástico,
donde para que este completamente especificado se requiere :

1. Su respuesta impulsional {g(n)}∞ .


2. El espectro Svv (ω) = λ|H (e jω )|2 de la perturbación aditiva, y ,si es posible,
la función de densidad de probabilidad de la perturbación e(t) ( f e (x)).

Un modelo completo, por tanto, vendrá caracterizado por


Y (z) = G(z)U (z) + H (z)E(z) (2.5.4)
f e (x) (2.5.5)
con

X
G(z) = g(k)z −k (2.5.6)
k=0
X∞
H (z) = h(k)z −k (2.5.7)
k=0

Un modelo particular corresponde a la especificación de estas tres funciones


G, H y f e . En la mayoría de los casos resulta poco práctico especificar por enu-
meración las secuencias infinitas {g(k)}, {h(k)} junto con f e (x). En vez de lo cual,
se toman estructuras de G y H que permitan la especificación en función de un
número finito de valores numéricos. Los casos más típicos son las funciones de
transferencia racionales.
También es frecuente que la función de densidad de probabilidad f e no se espe-
cifique como una función, sino que se describe por algunos parámetros caracterís-
ticos, los más típicos son el primer y segundo momentos. En el caso de que e(t) sea
Gaussiana, la función de densidad de probabilidad queda totalmente especificada
por estos dos momentos.
78 2. Técnicas clásicas de modelado de sistemas

Bibliografía

[1] E.A. Puente, Regulación Automática I, Sección de Publicaciones ETSIIM,


1980.

[2] K. Ogata, Discrete-Time Control Systems, Prentice Hall International Edi-


tion, 1995.

[3] B. Kuo, Automatic Control Systems, Prentice Hall, 1996.

[4] R. Isermann, Digital Control Systems, Springer Verlag, 1989.

[5] K.J. Aström, Computer Controlled Systems, Prentice Hall, 1988.


3. MODELADO Y ANÁLISIS DE SISTEMAS
EN EL ESPACIO DE ESTADOS

3.1. Introducción

Los métodos de análisis de sistemas basados en la descripción del sistema por


la relación entre su entrada y su salida son de una gran utilidad para tratar sistemas
dinámicos con una única entrada y una única salida, ya que son conceptualmente
simples y requieren por lo general un número pequeño de cálculos. Estos métodos
tienen dificultades para su utilización en sistemas no lineales, excepto en algunos
casos muy sencillos, en sistemas con múltiples entradas y salidas, o en sistemas
que presentan parámetros que varían con el tiempo.
Los métodos de análisis y modelado de sistemas basados en el espacio de esta-
dos son los más adecuados para el tratamiento de problemas con entradas y salidas
múltiples, así como para el tratamiento de problemas con parámetros variantes en
el tiempo e incluso de sistemas no lineales.
Las técnicas de modelado de sistemas en el espacio de estados se basan en des-
cribir al sistema dinámico por medio de n ecuaciones diferenciales de primer orden
para el caso de sistemas descritos en tiempo continuo o por medio de n ecuacio-
nes en diferencias para el caso de sistemas en tiempo discreto. Estas n ecuaciones
resultantes se describen por medio de una notación matricial, lo que simplifica la
representación matemática de las mismas.
La idea de estado es un concepto básico en la representación de sistemas en
el espacio de estados. Si tratamos de describir intuitivamente lo que significa un
estado en un sistema, hemos de recordar que estamos tratando con sistemas de tipo
dinámico. Un sistema dinámico genérico se caracteriza porque la salida que da en
un cierto instante de tiempo depende de las entradas al sistema en dicho instante y
de la situación en la que estaba el sistema como consecuencia de las entradas a las
que había sido sometido el sistema anteriormente.
La situación en la que se encuentra un sistema en un instante dado puede ser
caracterizada por un cierto conjunto de valores numéricos, y con este conjunto de
valores numéricos y con el valor de la entrada en el instante actual podemos de-
terminar el valor que tomará la salida del sistema en el instante siguiente. A este
conjunto de valores numéricos que caracterizan la situación del sistema en un ins-
tante dado es lo que denominamos estado del sistema en ese instante de tiempo.
80 3. Modelado y análisis de sistemas en el espacio de estados

R
i

u C u
e s

Fig. 3.1: Red RC

Podríamos dar una primera definición, un tanto informal, del concepto de estado.

Definición:
El estado de un sistema dinámico en un instante de tiempo t0 se puede definir
como el conjunto más pequeño de valores numéricos que es suficiente para de-
terminar la evolución futura del sistema para todo t ≥ t0 conocidos dichos valores
numéricos y las entradas al sistema para todo t ≥ t0 .

Esta definición, intuitivamente clara, require una formalización mayor, pues


no se ha considerado en la misma conceptos tales como unicidad, continuidad y
causalidad necesarios para una formalización consistente del concepto de estado.
Esta formalización la veremos posteriormente.
Otra cuestión importante es: ¿como podemos describir el estado de un cierto
sistema físico? Es decir, ¿qué variables del sistema nos permiten caracterizar el
estado del mismo? Una primera aproximación al problema consiste en determinar
qué variables del sistema almacenan energía, ya que la energía de un sistema suele
ser un buen caracterizador del estado del mismo. Veamos un ejemplo.

Ejemplo 3.1 Supongamos el sistema mostrado en la figura 3.1 que está consti-
tuido por una resistencia y un condensador.

Solución:
La ecuación diferencial que caracteriza al sistema es la siguiente,
du s 1
= (u e (t) − u s (t))
dt RC
si tomamos transformadas de Laplace en esta ecuación obtenemos
1
sUs (s) − u s (0) = [Ue (s) − Us (s)]
RC
y operando sobre esta expresión obtenemos que
1
1 RC
Us (s) = 1 u s (0) + 1
Ue (s)
RC
+s RC
+s
3.2. Concepto de estado de un sistema 81

En este sistema se puede observar, que la tensión de salida en un cierto instante


de tiempo depende por una parte del valor inicial de la tensión en condensador,
u s (0), y por otra parte de la entrada de control que se le introduce al sistema.
Resulta evidente que la variable que mantiene la memoria del estado energético
del mismo es la tensión en el condensador u s , por tanto, en este sistema el nivel
de carga del condensador será la variable que caracteriza el estado del sistema. Si
conocemos su valor en un cierto instante de tiempo y la entrada de tensión u e (t)
podemos conocer la salida del sistema. Si tuviésemos como entrada un escalón
unitario, la salida del sistema haciendo la antitransformada de Laplace sería,
−1 −1
u s (t) = u s (0)e RC t + (1 − e RC t )

3.2. Concepto de estado de un sistema

Aunque el espacio de estados ha sido extensamente utilizado en la descrip-


ción de sistemas dinámicos, resulta bastante difícil formular una definición formal
satisfactoria de los conceptos de estado y variable de estado. En este sentido la de-
finición debida a L.A. Zadeh es una de las más satisfactorias a la hora de expresar
las propiedades de ambos conceptos.
Consideremos el sistema S, es decir el modelo matemático de un sistema real
que tiene como entradas las señales u i (t), i = 1, 2, . . . , r y como salidas las se-
ñales y j (t), j = 1, 2, . . . , m, las cuales son función del tiempo. Al conjunto de
señales de entrada lo denotaremos por el vector u(t) de dimensiones r × 1 y al de
las variables de salida por y(t), de dimensión m × 1.
La variable x(t) (ver figura 3.2) puede considerarse como variable de estado
del sistema S en el instante t si satisface las siguientes condiciones de consistencia:

1. Los vectores x(t0 ) y u(t, t0 ) determinan de forma unívoca la salida y(t, t0 )


para todos los estados iniciales x(t0 ) ∈ X , para todos los valores de t ≥ t0 y
todo el espacio de las funciones de entrada u de S. Es decir

y(t, t0 ) = g(x(t0 ), u(t, t0 )) (3.2.1)

Esta condición implica que el sistema es determinista y causal, por lo que los
valores de las señales de salida en un instante de tiempo dado no dependen
de salidas posteriores al mismo.

2. Si t1 es un instante de tiempo entre t0 y t, entonces para cada vector de en-


trada u(t, t0 ) y vector de salida que se observa y(t, t0 ), considerados desde
el instante t1 de forma que dan los segmentos u(t, t1 ) e y(t, t1 ), existe un sub-
conjunto no vacío de elementos del espacio X , denotado por S[x(t0 ); u(t, t0 )],
cuyos elementos α satisfacen la siguiente relación
82 3. Modelado y análisis de sistemas en el espacio de estados

y(t, t1 ) = g(α, u(t, t0 )) (3.2.2)


Esta condición asegura que a cada par u(t, t1 ), y(t, t1 ) le corresponde un
estado inicial x(t1 ) en X .
3. Si u(t1 , t0 ) es invariable y u(t, t1 ) varía sobre todas las entradas del espa-
cio de funciones de entrada de S, entonces la intersección de los conjuntos
S[x(t0 ); u(t, t0 )], considerados sobre todos los valores de u(t, t1 ) es un con-
junto no vacío.
Esta condición asegura la existencia de al menos un estado en el espacio
X , la cual se refiere a todos los posibles pares de entradas u(t, t1 ) y salidas
y(t, t1 ), respectivamente.
De las condiciones 2 y 3 se tiene que el estado de S en el instante t está deter-
minado por el estado inicial x(t0 ) y el vector de entrada u(t, t0 ):
x(t) = f (x(t0 ), u(t, t0 )) (3.2.3)
donde f () es una función unívoca de sus argumentos.
x
3

x(t )
0
x(t )
1

x
2

x
1

Fig. 3.2: Concepto de estado

3.2.1. Representación matricial de las ecuaciones de estado


Si, tal y como se ha indicado anteriormente, un sistema puede describirse por
un conjunto de ecuaciones diferenciales o de ecuaciones en diferencias de primer
orden, las n ecuaciones de estado de un sistema dinámico de orden n-ésimo serán:

 ẋ1 (t) = f 1 (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))



 ẋ2 (t) = f 2 (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))
.. (3.2.4)

 .



ẋn (t) = f n (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))
3.2. Concepto de estado de un sistema 83

y las ecuaciones de salida del sistema serán las siguientes



 y1 (t) = g1 (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))



 y2 (t) = g2 (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))
.. (3.2.5)

 .



ym (t) = gm (x1 (t), . . . , xn (t), u 1 (t), . . . , u r (t))
Si expresamos los sistemas de ecuaciones anteriores de forma matricial, donde
x(t) será un vector n × 1, u(t) será un vector r × 1 e y(t) será un vector m × 1,
tendremos que

ẋ(t) = f (x(t), u(t)) (3.2.6)


y(t) = g(x(t), u(t)) (3.2.7)
En el caso de que el sistema sea lineal entonces las ecuaciones de estado podrán
escribirse de la forma:
ẋ(t) = A(t)x(t) + B(t)u(t) (3.2.8)
y(t) = C(t)x(t) + D(t)u(t) (3.2.9)
donde las matrices A(t), B(t), C(t) y D(t) son, en el caso general, matrices va-
riantes en el tiempo de dimensiones A(t) : n × n, B(t) : n × r , C(t) : m × n y
D(t) : m × r .

.
u(t) + x(t) x(t) + + y(t)
B x C
+

Fig. 3.3: Diagrama de bloques de un sistema en tiempo continuo representado en


ecuaciones de estado

En el caso de que el sistema esté definido por ecuaciones en diferencias, las


expresiones de las ecuaciones de estado y de salida serán
x(k + 1) = f (x(k), u(k)) (3.2.10)
y(k) = g(x(k), u(k)) (3.2.11)
84 3. Modelado y análisis de sistemas en el espacio de estados

L i L
i 1 2
1 2

u C C u
e 1 2 s

Fig. 3.4: Filtro Butterworth de 4o orden

y en el caso de que el sistema sea lineal o se linealice en torno a algún punto de


equilibrio tendremos que

x(n + 1) = G(k)x(k) + H(k)u(k) (3.2.12)


y(k + 1) = C(k)x(k) + D(k)u(k) (3.2.13)

Construcción del modelo de estado de un sistema físico


En términos generales dado un cierto sistema físico de tipo dinámico los pasos
a seguir para formular un modelo de estado son los siguientes:

1. Descomponer el sistema en los elementos básicos de forma que podamos


identificar sus componentes, variables, entradas, salidas y las relaciones entre
ellas.

2. Elección de las variables de estado del sistema, que en una primera aproxi-
mación se puede realizar observando los elementos dinámicos del sistema.
Nótese que el número de variables de un sistema debe ser igual al orden de
las ecuaciones diferenciales que lo describen.

3. Obtención de las ecuaciones de estado para cada variable independiente se-


leccionada en el paso anterior.

4. Obtención de la ecuaciones de salida del sistema, a partir de las variables de


salida que se desea controlar y de las variables de estado elegidas.

Veamos algunos ejemplos de este proceso que se acaba de indicar.

Ejemplo 3.2.1: Supongamos un filtro de Butterworth de 4o orden construido con


elementos pasivos, es decir con bobinas y condensadores, tal y como se muestra en
la figura 3.4, obtengamos su modelo de estado.
3.2. Concepto de estado de un sistema 85

Solución:
Las ecuaciones del sistema de acuerdo con las leyes de Kirchoff son:

di 1
ue = L 1 + u C1
dt
di 2
u C1 = L2 + u C2
dt
du C1
C1 = i1 − i2
dt
du C2
C2 = i2
dt
us = u C2 (3.2.14)
En este ejemplo la elección de las variables de estado es bastante clara, ya
que las variables que acumulan energía en el sistema son las tensiones en los con-
densadores y las intensidades en las bobinas. Tomando como variables de estado
las tensiones en los condensadores y las intensidades que circulan en las bobinas
tendremos que
di 1 1 1
= ue − uC
dt L1 L1 1
di 2 1 1
= uC − uC
dt L2 1 L2 2
du C1 1 1
= i1 − i2
dt C1 C1
du C2 1
= i2 (3.2.15)
dt C2
es decir
      
1 1
0 0 0
 i1   L1   i1   L1 
   1     
d   
 i2  =  0 0 1    0 
L 2   i2   
   +   ue
L2
(3.2.16)
dt   
u C1   1 1
0 0  u C1  
   
   C1 C1 0
u C2 1 u C2
0 C2
0 0 0
y la ecuación de salida sería
 
 i1 
 
 i2 
u s = [0 0 0 1] 
 
 (3.2.17)
u C1 
 
u C2
86 3. Modelado y análisis de sistemas en el espacio de estados

Ejemplo 3.2.2: Un modelo simple de operación de un Banco sería el siguiente:

El Banco aumenta el dinero en efectivo del que dispone por medio de las
imposiciones de los clientes en sus cuentas y por medio de los rendimientos
que el Banco obtiene de las inversiones que realiza.

El Banco disminuye el dinero efectivo del que dispone por medio de las
retiradas de fondos de las cuentas de los clientes, por el pago de los salarios
a los empleados del Banco y los diferentes suministros necesarios, y por las
inversiones que realiza el Banco.

El Banco paga un interés r1 fijo por el dinero que los clientes tienen en sus
cuentas, y lo abona mensualmente. A su vez obtiene una rentabilidad r2 por
sus inversiones, que le es abonada mensualmente.

La política del Banco consiste en invertir cada mes el α % del dinero en


efectivo que queda en la caja.

Solución:
Denominemos Rc (k) al total del dinero que los clientes tienen en sus cuentas, Rb (k)
al dinero que el banco tiene invertido, Cb (k) el capital del banco al final del mes,
Dc (k) a los nuevos depósitos que realizan los clientes en el mes k-ésimo, G c (k)
a los gastos o devoluciones de dinero a los clientes de sus cuentas en dicho mes,
G b (k) a los gastos necesarios para el funcionamiento del banco (salarios de los
empleados y los diferentes suministros de material) y E(k) al dinero en efectivo en
la caja del Banco.

El saldo total de las cuentas de los clientes en el mes (k+1) es igual al que
tenían en el mes k, más las nuevas imposiciones, menos las retiradas y más
los intereses que la Caja les paga por su saldo en ese mes. Es decir:

Rc (k+1) = Rc (k)+r1 Rc (k)+Dc (k)−G c (k) = (1−r1 )Rc (k)+Dc (k)−G c (k)

El dinero invertido por el banco en el mes k + 1 es el dinero invertido en el


mes anterior, más el porcentaje del dinero en efectivo en la caja a final de
mes que es invertido.

Rb (k + 1) = Rb (k) + α E(k)

El capital del banco aumenta o disminuye cada mes en una cantidad igual
al beneficio que obtiene del total de inversiones menos los gastos del banco
3.2. Concepto de estado de un sistema 87

para obtenerlos (lo que les paga a los clientes de intereses por las cuentas
más lo que paga a empleados y suministradores):

Cb (k + 1) = Cb (k) + r2 Rb (k) − r1 Rc (k) − G b (k)

El saldo total de las cuentas de los clientes, más el capital del banco debe ser
igual al dinero que tiene el banco en sus inversiones más el dinero efectivo
en la caja.

E(k) + Rb (k) = Rc (k) + Cb (k)

Tomando como variables de estado Rc (k), Rb (k), Cb (k) obtenemos que

       
 Rc (k + 1) 1 + r1 0 0   Rc (k) 1 −1 0   Dc (k)
       
 Rb (k + 1) =  α 1 − α α  + 0  
     Rb (k) 0 0   G c (k)
Cb (k + 1) −r1 r2 1 Cb (k) 0 0 −1 G b (k)
(3.2.18)
La salida del sistema en este caso podría ser el propio vector de estado.

Linealización de sistemas en el espacio de estados

Una gran parte de los sistemas físicos que nos encontramos nos conducen a
ecuaciones de estado no lineales. Estos tipos de ecuaciones presentan dificultades
prácticas para su resolución por lo que cuando resulta posible se trata de obtener
aproximaciones lineales a un cierto funcionamiento no lineal en el entorno de un
cierto punto de operación. Supuesto un cierto punto de operación del sistema (x =
x0 , u = u0 ), una aproximación lineal al sistema en el entorno de ese punto de
operación se obtiene a partir del desarrollo en serie de Taylor.
El desarrollo en serie de Taylor para un sistema multivariable definido por el
sistema de ecuaciones

ẋ(t) = f (x(t), u(t)) (3.2.19)


y(t) = g(x(t), u(t)) (3.2.20)

en el punto de operación (x = x0 , u = u0 ), se puede expresar como:

d
x̃(t) = A x̃(t) + B ũ(t) (3.2.21)
dt
ỹ(t) = C x̃(t) + D ũ(t) (3.2.22)
88 3. Modelado y análisis de sistemas en el espacio de estados

donde x̃ = x − x0 , ũ = u − u0 , ỹ = y − y0 y las matrices A, B, C y D son las


Jacobianas de f y g para x y u definidas por las siguientes expresiones:

A = ∇ f x | x0 ,u0 (3.2.23)
B = ∇ f u | x0 ,u0 (3.2.24)
C = ∇g x | x0 ,u0 (3.2.25)
D = ∇g u | x0 ,u0 (3.2.26)

y recordando la expresión de la matriz Jacobiana


 
∂ f1 ∂ f1
 ∂ x1 . . . ∂ xn 
 
∇ f x =  ... ..
.  (3.2.27)
 
∂ fn ∂ fn
∂ x1
. . . ∂ xn

podemos obtener las expresiones de A, B, C y D.

Ejemplo 3.4 Un modelo de estado simplificado para un horno de secado viene


dado por el siguiente conjunto de ecuaciones de estado:

ẋ1 = −a1 x2
ẋ2 = b1 x1 − b2 x2 − b3 u 1
ẋ3 = c1 x2 + c2 u 2 (T2 − x3 ) + c3 x2 x3 (3.2.28)

Linealizar el sistema.
Solución:
Sustituyendo las ecuaciones 3.2.28 en las expresiones de las Jacobianas tendremos
que

A = ∇ f x | x0 ,u0
 
∂ f1 ∂ f1 ∂ f1
 ∂ x1 ∂ x2 ∂ x3 
 ∂ f2 
=  ∂ f2 ∂ f2 
 ∂ x1 ∂ x2 ∂ x3 
∂ f3 ∂ f3 ∂ f3
∂ x1 ∂ x2 ∂ x3
 
 0 −a 1 0 
 
= b1 −b2 0  (3.2.29)
 
0 (c1 + c3 x3,0 ) (c3 x2,0 − c2 u 2,0 )
y
3.2. Concepto de estado de un sistema 89

B = ∇ f u | x0 ,u0
 
∂ f1 ∂ f1
 ∂u 1 ∂u 2 
 ∂ f2 
=  ∂ f2 
 ∂u 1 ∂ xu 2 
∂ f3 ∂ f3
∂u 1 ∂u 2
 
 0 0 
 
= −b1 0  (3.2.30)
 
0 c2 (T2 − x3,0 )

3.2.2. Función de transferencia y representación en el


espacio de estados
Tanto la representación en el espacio de estados como la función de transferen-
cia de un sistema son dos formas de modelar matemáticamente el comportamiento
de un sistema. Resulta evidente que si un sistema puede ser representado mediante
dos modelos matemáticos diferentes, existirá alguna relación entre ambos. Supon-
gamos que hemos obtenido la representación de estado de un sistema, y que este
sistema es lineal e invariante en el tiempo
d
x(t) = Ax(t) + Bu(t) (3.2.31)
dt
y(t) = C x(t) + Du(t) (3.2.32)

donde las matrices A, B, C y D tienen dimensiones A : n ×n, B : n ×r , C : m ×n


y D : m × r.
Si hacemos la transformada de Laplace de las ecuaciones de la representación
de estado tenemos que

s X(s) − x(0) = AX(s) + BU(s) (3.2.33)


Y (s) = C X(s) + DU(s) (3.2.34)

La función de transferencia nos da la relación que existe entre la entrada y la


salida de un sistema. Hemos de relacionar por lo tanto la entrada y la salida del
sistema, para ello operamos

s X(s) − AX(s) = BU(s) + x(0)


(s I − A)X(s) = BU(s) + x(0)
X(s) = (s I − A)−1 BU(s) + (s I − A)−1 x(0) (3.2.35)
90 3. Modelado y análisis de sistemas en el espacio de estados

y sustituyendo en la ecuación de salida del sistema obtenemos

Y (s) = C(s I − A)−1 BU(s) + C(s I − A)−1 x(0) + DU(s)


= [C(s I − A)−1 B + D]U(s) + (s I − A)−1 x(0) (3.2.36)
En esta expresión se puede observar que la salida del sistema es función por
una parte de la entrada de control al mismo y por otra de las condiciones iniciales
del sistema. Si suponemos que las condiciones iniciales son nulas, la función de
transferencia del sistema será

Y (s)
F(s) = = C(s I − A)−1 B + D (3.2.37)
U(s)
Como
1
(s I − A)−1 = Ad j (s I − A)T
|s I − A|
se tiene que el polinomio característico del sistema es |s I − A|, y por tanto, los
polos del sistema coinciden con los autovalores de la matriz A.

3.3. Representación de sistemas en el espacio de estados

Tal como se ha indicado en la sección anterior la representación en el espacio


de estados de un sistema corresponde a una descripción del mismo por medio de
un conjunto de ecuaciones diferenciales o en diferencias de primer orden. Normal-
mente no se dispone de las ecuaciones del sistema de forma que pueda obtenerse
el modelo en el espacio de estados de forma directa, sino que se tiene un conjunto
de situaciones muy variable donde nos podemos encontrar un sistema descrito por
una o varias ecuaciones diferenciales, de primer orden o de orden superior, lineales
o no lineales.
La matriz D en la mayoría de los sistemas no existe, dado que representa un
reflejo de la entrada en la salida de forma directa. En el caso de que este efecto se
produjera, y dado que la matriz D es de coeficientes constantes, se puede sumar el
efecto a la salida.
Por ello es necesario desarrollar algún método de conversión de ecuaciones
diferenciales ordinarias o de ecuaciones en diferencias a ecuaciones diferenciales
o en diferencias de primer orden. Estos métodos los veremos en las secciones si-
guientes.

3.3.1. Conversión de una ecuación diferencial ordinaria a


ecuaciones de estado
Para un cierto sistema dinámico, la elección de las variables de estado no es
única, por lo que no basta con mostrar una única solución puesto que en ocasiones
3.3. Representación de sistemas en el espacio de estados 91

una elección determinada de dichas variables de estado tiene ciertas ventajas frente
a otra. Veamos a continuación algunos de los métodos más usuales de elección de
las mismas y a que tipo de representaciones dan lugar. Estas representaciones se
denominan formas canónicas, y entre ellas tenemos: la forma canónica controlable,
la forma canónica observable y la forma canónica de Jordan.

Forma canónica controlable


En este método de representación de un cierto sistema la variable de estado
i-ésima se escoge como la derivada de la variable de estado i − 1. Esta elección
es bastante natural en una gran cantidad de sistemas, por ejemplo en los sistemas
mecánicos, tanto para el movimiento lineal como para el angular, tenemos que la
aceleración es la derivada de la velocidad y la velocidad la derivada de la posición.
También se les denomina variables de fase.
Supongamos un sistema invariante en el tiempo, con una única señal de entrada
u y una única señal de salida y, cuya dinámica viene determinada por una ecuación
diferencial lineal de coeficientes constante
dn d dm d
an y(t) + . . . + a 1 y(t) + a 0 y(t) = bm u(t) + . . . + b1 u(t) + b0 u(t)
dt n dt dt m dt
(3.3.1)
con n ≥ m. Si utilizamos el operador p = dtd la expresión anterior podemos
reescribirla de la siguiente forma
an p n y(t) + . . . + a1 py(t) + a0 y(t) = bm p m u(t) + . . . + b1 pu(t) + b0 u(t) (3.3.2)
o bien, si sacamos y(t) y u(t) como factor común en ambos lados de la expresión
(an p n + . . . + a1 p + a0 )y(t) = (bm p m + . . . + b1 p + b0 )u(t) (3.3.3)
que podemos expresar de forma más compacta como un cociente de polinomios de
la forma
M( p)y(t) = N ( p)u(t) (3.3.4)
donde
M( p) = an p n + . . . + a1 p + a0 (3.3.5)
m
N ( p) = bm p + . . . + b1 p + b0 (3.3.6)
De la ecuación 3.3.4 se deduce que
N ( p)
y(t) = u(t) (3.3.7)
M( p)
Si definimos la primera de las variables de estado de forma que
1
x(t) = u(t) (3.3.8)
M( p)
92 3. Modelado y análisis de sistemas en el espacio de estados

se puede observar que la ecuación 3.3.7 ha sido reemplazada por las dos siguientes
expresiones
1
x(t) = u(t) (3.3.9)
M( p)
y(t) = N ( p)x(t) (3.3.10)
Tomando las variables de estado de la siguiente forma
x(t) = x1 (t)
d d
x(t) = x2 (t) = x1 (t)
dt dt
..
.
dn−1 d
n−1
x(t) = xn (t) = xn−1 (t) (3.3.11)
dt dt
donde se ve claramente que se toman como variables de estado las sucesivas deri-
vadas de x(t), la ecuación 3.3.9 se puede reescribir de la siguiente forma

dn 1 an−1 a1 a0
x(t) = u(t) − xn (t) − . . . − x2 (t) − x1 (t) (3.3.12)
dt n an an an an
Las ecuaciones 3.3.11 y 3.3.12 podemos expresarlas de forma matricial como

      
 ẋ1 (t)   0 1 0 ... 0   x1 (t)   0 
      
 ẋ2 (t)   0 0 1 ... 0   x2 (t)   0 
      
 ..   .. ..   ..   .. 
 . = . .   .  +  .  u(t)
      
      
ẋn−1 (t)  0 ... 1     
   0 0  xn−1 (t)  0 
ẋn (t) − aan0 − aan1 − aan2 . . . − an−1
an xn (t) 1
an
(3.3.13)
Para obtener la ecuación de salida partimos de la ecuación 3.3.10, utilizando la
definición de las variables de estado 3.3.11 y suponiendo que n = m obtenemos
que
d
b0 x1 (t) + b1 x2 (t) + . . . + bn−1 xn (t) + bn xn (t) = y(t) (3.3.14)
dt
d
y sustituyendo en esta ecuación x
dt n
por 3.3.12 nos queda la siguiente expresión
a0 a1
y(t) = (b0 − bn )x1 (t) + (b1 − bn )x2 (t) + . . .
an an
an−1 bn
. . . + (bn−1 − bn )xn (t) + u(t) (3.3.15)
an an
3.3. Representación de sistemas en el espacio de estados 93

+ + + + + + y(t)

b b b b
0 1 2 n

u(t) + xn xn-1 x2 x1
x x x
-

a a a
1 2 n

- - -
+ +

Fig. 3.5: Representación gráfica de la forma canónica controlable

que formulada en términos matriciales da lugar a

 
 x1 (t)
h i 
 x2 (t) bn
y(t) = b0 − bn a0  
b1 − bn aan1 . . . bn−1 − bn an−1  ..  + a u(t) (3.3.16)
an an
 .  n
 
xn (t)

Esta representación se denomina forma canónica controlable o también forma


canónica en variables de fase. Una simplificación bastante usual se obtiene cuando
an = 1. En la figura 3.5 se muestra un esquema gráfico de esta forma de representar
un sistema en el espacio de estados.

Forma canónica observable

En esta forma canónica de representación las variables de estado son una com-
binación lineal de las derivadas de las variables de entrada y de salida.
Consideremos un sistema dinámico descrito por una ecuación diferencial de
orden n, como en el caso anterior, y cuya ecuación es la mostrada en 3.3.1. Su-
pongamos el caso donde n = m y definamos las variables de estado de forma que
xn es función de y(t) y u(t), xn−1 es función de y(t), u(t) y sus derivadas y así
sucesivamente, tal y como se muestra a continuación
94 3. Modelado y análisis de sistemas en el espacio de estados

xn (t) = an y(t) − bn u(t)


d d
xn−1 (t) = an−1 y(t) + an y(t) − bn−1 u(t) − bn u(t)
dt dt
d d2
xn−2 (t) = an−2 y(t) + an−1 y(t) + an−2 2 y(t) −
dt dt
d d2
−bn−2 u(t) − bn−1 u(t) − bn−2 2 u(t)
dt dt
..
.
d dn−1
x1 (t) = a1 y(t) + a2 y(t) + . . . + an n−1 y(t) −
dt dt
d dn−1
−b1 u(t) − b2 u(t) − . . . − bn n−1 u(t) (3.3.17)
dt dt

De la primera ecuación del conjunto de ecuaciones 3.3.17 podemos calcular


y(t), la ecuación de salida del sistema, que da como resultado la siguiente expre-
sión

1 bn
y(t) = xn (t) + u(t) (3.3.18)
an an

Si derivamos las ecuaciones del sistema de ecuaciones 3.3.17 obtenemos

d d d
xn (t) = an y(t) − bn u(t)
dt dt dt
d d d2 d d2
xn−1 (t) = an−1 y(t) + an 2 y(t) − bn−1 u(t) − bn 2 u(t)
dt dt dt dt dt
..
.
d d d2 dn−1
x2 (t) = a2 y(t) + a3 2 y(t) + . . . + an n−1 y(t) −
dt dt dt dt
d d2 dn−1
−b2 u(t) − b3 2 u(t) − . . . − bn n−1 u(t)
dt dt dt
2
d d d
x1 (t) = a1 y(t) + a2 2 y(t) + . . . + an y n) (t) −
dt dt dt
d d2 dn
−b1 u(t) − b2 2 u(t) − . . . − bn n u(t) (3.3.19)
dt dt dt

sustituyendo las ecuaciones 3.3.19 en el sistema de ecuaciones 3.3.17 obtenemos


3.3. Representación de sistemas en el espacio de estados 95

que

xn (t) = an y(t) − bn u(t)


d
xn−1 (t) = an−1 y(t) − bn−1 u(t) + xn (t)
dt
d
xn−2 (t) = an−2 y(t) − bn−2 u(t) + xn−1 (t)
dt
..
.
d
x1 (t) = a1 y(t) − b1 u(t) + x2 (t) (3.3.20)
dt
y si aquí sustituimos y(t) por la ecuación de salida 3.3.18 tendremos, n − 1 ecua-
ciones de estado, faltaría únicamente la ecuación de estado correspondiente a ẋ1 (t)

an−1 an−1 d
xn (t) = xn (t) − (bn−1 − bn )u(t) + xn (t)
an an dt
an−2 an−2 d
xn−1 (t) = xn (t) − (bn−2 − bn )u(t) + xn−1 (t)
an an dt
..
.
a1 a1 d
x2 (t) = xn (t) − (b1 − bn )u(t) + x2 (t) (3.3.21)
an an dt

Para obtener la ecuación de estado que nos falta combinamos las ecuaciones
3.3.21 con la ecuación diferencial original expresada en términos de las variables
de estado que hemos definido

a0 a0 d
0= xn (t) − (b0 − bn )u(t) + x1 (t) (3.3.22)
an an dt
Escribiendo en forma matricial las ecuaciones 3.3.21 y 3.3.22 obtenemos el
conjunto de ecuaciones de estado y de la ecuación 3.3.18 la ecuación de salida, es
decir

    
  0 0 ... 0 0 − aan0 b − bn aan0
   x1 (t)   0 
 x 1 (t) 
 1     a1 
  
a1    
0 . . . 0 0 − an   x2 (t)   b1 − bn an  
d  x (t)
 2 =
 . .. .. .. ..   ..  +  .. 
 .. . . .  
.  .     .  u(t)
dt  .. 
 . 
  
  0 an−2     an−2 

 
0 . . . 1 0 − an  xn−1 (t) bn−2 − bn an 
 

xn (t)
an−1 an−1
0 0 . . . 0 1 − an xn (t) bn−1 − bn an
(3.3.23)
96 3. Modelado y análisis de sistemas en el espacio de estados

u(t)

bn-anb0 bn-1 -an-1b0 b1-a1b0 b0

+ x1 + x2 + xn + y(t)
x + x x
- + +
- xn-1 -

an an-1 a1

Fig. 3.6: Representación gráfica de la forma canónica observable

 
 x1 (t) 
 
 
h i  x2 (t)  b
 ..  n
y(t) = 0 0 . . . 0 0 1 
.  + u(t) (3.3.24)
an   an
 
xn−1 (t)
 
xn (t)

En la figura 3.6 se muestra un esquema gráfico de esta forma de representar un


sistema en el espacio de estados.

Forma canónica de Jordan

Este método de elección de las variables de estado se basa en el principio de


superposición de sistemas lineales, es decir se busca la descomposición de la res-
puesta del sistema lineal en sus componentes individuales. Consideremos en este
caso que la función de transferencia del sistema sea

Y (s) bm s m + . . . + b1 s + b0
G(s) = = (3.3.25)
U (s) an s n + . . . + a 1 s + a 0

donde m ≤ n.
Supongamos en primer lugar que el denominador de dicha función de transfe-
rencia no tiene raíces múltiples, con lo que descomponiendo en fracciones parciales
3.3. Representación de sistemas en el espacio de estados 97

se obtiene que

bm s m + . . . + b1 s + b0
G(s) =
an (s − λ1 )(s − λ2 ) . . . (s − λn )
c1 c2 cn
= + + ... + (3.3.26)
s − λ1 s − λ2 s − λn

en la ecuación 3.3.26 se puede observar que la salida del sistema corresponde a


la combinación lineal de n componentes elementales más un término directamente
relacionado con la entrada que aparece únicamente en el caso de que n = m

c1 c2 cn bn
Y (s) = U (s) + U (s) + . . . + U (s) + U (s) (3.3.27)
s − λ1 s − λ2 s − λn an

Cada una de estas componentes elementales de la ecuación 3.3.27 es la res-


puesta de un sistema con función de transferencia

1
G i (s) = (3.3.28)
s − λi

a la señal de entrada U (s), lo que implica que si cada una de estas componen-
tes básicas la tomamos como una variable de estado X i (s) que satisface X i (s) =
G i (s)U (s), esto implica que la variable de estado xi (t) así definida satisface la
siguiente ecuación diferencial

d
xi (t) = λi xi (t) + u(t) (3.3.29)
dt

Tenemos, por tanto, n ecuaciones diferenciales como la 3.3.29 que constituyen


las ecuaciones de estado y una ecuación de salida que en el dominio del tiempo
tiene la forma
bn
y(t) = c1 x1 (t) + c2 x2 (t) + . . . + cn xn (t) + u(t) (3.3.30)
an

y formulando las ecuaciones 3.3.29 y 3.3.30 en forma matricial tendremos

     

 x1 (t) λ1 0 . . . 0   x1 (t) 1
      
d   
 x2 (t) =  0 λ2 . . . 0    
  x2 (t) + 1 u(t) (3.3.31)
dt  ... 
 .
  ..
..
.
..
.
  .  .
 ..   .. 
      
xn (t) 0 0 . . . λn xn (t) 1
98 3. Modelado y análisis de sistemas en el espacio de estados

u(t) + y(t)
b0
+
+ x1 +
- ∫ c1
+

b1

+ xn +
- ∫ cn

bn

Fig. 3.7: Representación gráfica de la forma canónica de diagonal

 
 x1 (t)
 
 x2 (t) bn
y(t) = [c1 c2 . . . cn ]  
 ..  + a u(t) (3.3.32)
 .  n
 
xn (t)
Si en la forma canónica de Jordan todas las raíces del denominador son simples
se la conoce con el nombre de forma canónica diagonal. En la figura 3.7 se muestra
una representación gráfica de la forma canónica de diagonal de un sistema.
En el caso de que el polinomio característico de la función de transferencia
del sistema tenga raíces múltiples, la descomposición en fracciones parciales daría
lugar a una expresión del siguiente tipo

bm s m + . . . + b1 s + b0
G(s) =
an (s − λ1 )k (s − λ2 ) . . . (s − λn ) (3.3.33)
c1 ck ck+1 cn
= + ... + + + ... +
(s − λ1 ) k s − λ1 s − λ2 s − λn
Si suponemos que las condiciones iniciales son nulas la respuesta del sistema
ante una entrada Y (s) será
c1 ck ck+1 cn
Y (s) = U (s) + . . . + U (s) + U (s) + . . . + U (s)
(s − λ1 ) k s − λ1 s − λ2 s − λn
(3.3.34)
3.3. Representación de sistemas en el espacio de estados 99

y tomando como vectores de estado cada una de las fracciones que aparecen en la
ecuación 3.3.34 tendremos

c1 c1
X 1 (s) = U (s) = X 2 (s)
(s − λ1 )k s − λ1
c2 c1
X 2 (s) = U (s) = X 3 (s)
(s − λ1 )k−1 s − λ1
..
.
ck
X k (s) = U (s)
s − λ1
ck+1
X k+1 (s) = U (s)
s − λ2
..
.
cn
X n (s) = U (s) (3.3.35)
s − λn

Reescribiendo las ecuaciones anteriores 3.3.35 en el dominio del tiempo nos


quedará el sistema expresado como conjunto de ecuaciones diferenciales de primer
orden

d
x1 (t) = λ1 x1 (t) + x2 (t)
dt
d
x2 (t) = λ1 x2 (t) + x3 (t)
dt
..
.
d
xk (t) = λ1 xk (t) + u(t)
dt
d
xk+1 (t) = λ2 xk+1 (t) + u(t)
dt
..
.
d
xn (t) = λn xn (t) + u(t) (3.3.36)
dt
100 3. Modelado y análisis de sistemas en el espacio de estados

u(t) y(t)
2 s+3 1
s+1 s+2 s

Fig. 3.8: Sistema del ejemplo 3.3.1

y puesto este conjunto de ecuaciones en forma matricial


     
 
 x1 (t)   x1 (t)  0
  λ1 1 0 . . . 0 0 . . . 0     
 x2 (t)    x2 (t)   
      0
  0 λ 1 . . . 0 0 . . . 0    
 x3 (t)  
1
   .
. .
. .
. .
.  x3 (t)   
 0
 ..    . . . . 
d    ..   .. 
 . =  .   
 +  .  u(t)
   0 0 0 . . . λ1 0 . . . 0     
dt  x (t)   
(t)  1
 k      x k   
  0 0 0 . . . 0 λ2 . . . 0     
xk+1 (t)   . . . .   x (t)  1
  .. .. .. ..   k+1   
 ..   
  ..  . .
 .     .. 
  0 0 0 . . . 0 0 . . . λn    
xn (t) xn (t) 1
(3.3.37)

 
 x1 (t) 
 
 x2 (t) 
 
 
 x3 (t) 
 
 .. 
 .  bn
y(t) = [c1 c2 c3 . . . ck ck+1 . . . cn ] 

 + u(t)
 (3.3.38)
 xk (t)  an
 
 
xk+1 (t)
 
 .. 
 . 
 
xn (t)

Ejemplo 3.3.1: Dado el sistema mostrado en la figura 3.8, obtengamos las for-
mas canónicas de Jordan, controlable y observable.

Solución:

Forma canónica de Jordan. Obtenemos en primer lugar la función de trans-


3.3. Representación de sistemas en el espacio de estados 101

ferencia global del sistema,


2(s + 3)
F(s) =
s(s + 1)(s + 2)
y a continuación la expandimos en fracciones parciales
−4 1 3
F(s) = + +
s+1 s+2 s
y de aquí tenemos que tomando como variables de estado las fracciones par-
−4 1
ciales X 1 (s) = s+1 U (s), X 2 (s) = s+2 U (s) y X 3 (s) = 3s U (s) obtenemos la
siguiente representación de estado
      
x1 (t) −1 0 0 x1 (t) 1
d       
x2 (t) =  0 −2 0 x2 (t) + 1 u(t)
dt       
x3 (t) 0 0 0 x3 (t) 1
 
x
 1 (t)
 
y(t) = [−4 1 3] x2 (t)
 
x3 (t)

Forma canónica controlable. Partiendo de la función de transferencia F(s)


del sistema
2(s + 3) 2s + 6
F(s) = = 3
s(s + 1)(s + 2) s + 3s 2 + 2s
obtenemos que los coeficientes del polinomio del denominador son a3 =
1, a2 = 3, a1 = 2, a0 = 0 y los del numerador b1 = 2, b0 = 6. Susti-
tuyendo estos coeficientes en la expresión de la forma canónica controlable
obtenemos
      
x1 (t) 0 1 0  x1 (t) 0
d       
x2 (t) = 0 0 1  x2 (t) + 0 u(t)
dt       
x3 (t) 0 −2 −3 x3 (t) 1
 
x
 1 (t)
 
y(t) = [6 2 0] x2 (t)
 
x3 (t)
102 3. Modelado y análisis de sistemas en el espacio de estados

Forma canónica observable. Partiendo de los coeficientes de los polinomios


del numerador y del denominador de la función de transferencia que hemos
obtenido y sustituyendo en la expresión de la forma canónica observable se
llega a
      
x1 (t) 0 0 0  x1 (t) 6
d       
 =   +   u(t)
dt x2 (t) 1 0 −2 x2 (t) 2
x3 (t) 0 1 −3 x3 (t) 0
 
h i x1 (t)
 
y(t) = 0 0 1 x2 (t)
 
x3 (t)

3.3.2. Conversión de una ecuación en diferencias a


ecuaciones de estado
La conversión de ecuaciones en diferencias a ecuaciones de estado es un proce-
so similar al que hemos visto para sistemas expresados por ecuaciones diferencia-
les, salvo que se trabaja a partir de la transformada z o bien a partir de la expresión
en diferencias y utilizando el operador retardo para expresar en forma polinómica
las ecuaciones de estado.
Supongamos un sistema invariante en el tiempo, con una única señal de entrada
u y una única señal de salida y, cuya dinámica viene determinada por una ecuación
en diferencias lineal de coeficientes constantes

an y(k − n) + . . . + a1 y(k − 1) + a0 y(k) = bm u(k − m) + . . . + b1 u(k − 1) + b0 u(k)


(3.3.39)
con n ≥ m. Si introducimos el operador retardo q −1 la expresión anterior podemos
reescribirla de la siguiente forma

an q −n y(k) + . . . + a1 q −1 y(k) + a0 y(k) = bm q −m u(k) + . . . + b1 q −1 u(k) + b0 u(k)


(3.3.40)
o bien, si sacamos y(t) y u(t) como factor común en ambos lados de la expresión

(an q −n + . . . + a1 q −1 + a0 )y(k) = (bm q −m + . . . + b1 q −1 + b0 )u(k) (3.3.41)

que podemos expresar de forma más compacta como un cociente de polinomios de


la forma

N (q)
y(k) = u(k) (3.3.42)
M(q)
3.3. Representación de sistemas en el espacio de estados 103

A partir de aquí es posible realizar un desarrollo similar al hecho para el caso


de sistemas en tiempo continuo, y se llegaría a las mismas expresiones, por lo que
no se repetirá el desarrollo.

Ejemplo 3.3.2: Dado un sistema un cuya función de transferencia es

z 2 + 0.4z + 3
F(z) =
z 3 + 1.9z 2 + 1.08z + 0.18
determinemos las formas canónicas controlable, observable y de Jordan.

Solución:

Forma canónica controlable. Partiendo de la función de transferencia F(z)


del sistema obtenemos que los coeficientes del polinomio del denominador
son a3 = 1, a2 = 1.9, a1 = 1.08, a0 = 0.18 y los del numerador b2 =
1, b1 = 0.4, b0 = 3 y de aquí
   
  
x1 (k + 1)  0 1 0  x1 (k) 0
      
x2 (k + 1) =  0 1    +   u(k)
   0  x2 (k) 0
x3 (k + 1) −0.18 −1.08 −1.9 x3 (k) 1
 
x1 (k)
 
y(k) = [2.82 − 0.68 − 0.9] x2 (k)
 
x3 (k)

Forma canónica observable. Partiendo de los coeficientes de los polinomios


del numerador y del denominador de la función de transferencia se obtiene
      
x1 (k + 1) 0 0 −0.18 x1 (k)  2.82 
      
x2 (k + 1) = 1 0 −1.08 x2 (k) + −0.68 u(k)
      
x3 (k + 1) 0 1 −1.9 x3 (k) −0.9
 
x
 1 (k)
 
y(k) = [0 0 1] x2 (k)
 
x3 (k)
104 3. Modelado y análisis de sistemas en el espacio de estados

Forma canónica de Jordan. Si obtenemos las raíces del denominador de la


función de transferencia del sistema,
z 2 + 0.4z + 3
F(z) =
(z + 1)(z + 0.6)(z + 0.3)
y a continuación la expandimos en fracciones parciales
12.85 −26 14.14
F(z) = + +
z+1 z + 0.6 z + 0.3
tomando como variables de estado las fracciones parciales X 1 (z) = 12.85
z+1
U (z),
26 14.14
X 2 (z) = z+0.6 U (s) y X 3 (z) = z+0.3 U (z) obtenemos la siguiente representa-
ción de estado
      
x1 (k + 1) −1 0 0  x1 (k) 1
      
x2 (k + 1) =  0 −0.6 0  x2 (k) + 1 u(k)
      
x3 (k + 1) 0 0 −0.3 x3 (k) 1
 
x1 (k)
 
y(k) = [12.86 − 26 14.14] x2 (k)
 
x3 (k)

3.3.3. Transformaciones entre representaciones


Consideremos un sistema definido por una ecuación de estado y de salida en
tiempo discreto de la forma
x(k + 1) = Gx(k) + H u(k)
y(k) = C x(k) + Du(k) (3.3.43)
veamos una serie de técnicas que nos permiten pasar de una representación de
estado cualesquiera a alguna otra. Si para el sistema definido por las ecuaciones
3.3.43 definimos un nuevo vector de estado x 0 (k) de forma que
x(k) = T x 0 (k) (3.3.44)
donde T es una matriz no singular, es decir, que es invertible, y por tanto las nue-
vas variables x 0 (k) se pueden expresar como combinación lineal de las x(k). Si
sustituimos en el sistema de ecuaciones 3.3.43 las variables de estado por las re-
cién definidas teniendo en cuenta la relación entre ellas dada por la transformación
3.3.44, obtenemos que
T x 0 (k + 1) = GT x 0 (k) + H u(k) (3.3.45)
3.3. Representación de sistemas en el espacio de estados 105

y premultiplicando por la inversa de la matriz de transformación se tiene que


x 0 (k + 1) = T −1 GT x 0 (k) + T −1 H u(k) (3.3.46)
con lo que si denominamos
G 0 = T −1 GT (3.3.47)
0 −1
H = T H (3.3.48)
nos queda que

x 0 (k + 1) = G 0 x 0 (k) + H 0 u(k) (3.3.49)


Procediendo de forma similar para la ecuación de salida del sistema, tendremos
que
y(k) = C T x 0 (k) + Du(k) (3.3.50)
y denominando
C0 = C T (3.3.51)
0
D = D (3.3.52)
obtenemos una nueva representación de estado

x 0 (k + 1) = G 0 x 0 (k) + H 0 u(k) (3.3.53)


0 0 0
y(k) = C x (k) + D u(k) (3.3.54)
Dos representaciones de estado son similares si tienen el mismo polinomio
característico, y por tanto los mismos valores propios o autovalores. Veamos que
esto se verifica para el caso anterior,

|z I − G 0 | = |z I − T −1 GT |
= |zT −1 T − T −1 GT |
= |T −1 (z I − G)T |
= |T −1 ||z I − G||T |
= |z I − G| (3.3.55)
Dicho de otra manera, la ecuación característica de la matriz y sus autovalores,
no dependen de la base elegida para representar el sistema en el espacio de estados.
Puesto que la matriz de transformación sólo requiere que esta sea no singular,
existen infinitas representaciones de estado para un sistema dado. Si se desea que
el sistema este representado en alguna forma canónica concreta, el problema que
se plantea es determinar la matriz de transformación que nos permita pasar de la
representación actual a la canónica que nos interese.
106 3. Modelado y análisis de sistemas en el espacio de estados

Transformación a la forma canónica controlable

Dado un sistema expresado en el espacio de estados de la forma

x(k + 1) = Gx(k) + Hu(k) (3.3.56)


y(k) = C x(k) + Du(k) (3.3.57)

puede ser transformado a la forma canónica controlable por medio de la siguiente


matriz de transformación
T = MW (3.3.58)

donde
M = [H G H . . . G n−1 H] (3.3.59)

y
 
 a1 a2 . . . an−1 1
 
 a2 a3 . . . 1 0
 
 .. .
.. .. .. 
W = . . . (3.3.60)
 
 
an−1 1 . . . 0 0
 
1 0 ... 0 0

siendo los elementos ai de la matriz W los coeficientes de la ecuación característica


del sistema

|z I − G| = z n + an−1 z n−1 + . . . + a1 z + a0 = 0 (3.3.61)

Transformación a la forma canónica observable

Dado un sistema expresado en el espacio de estados de la forma

x(k + 1) = Gx(k) + Hu(k) (3.3.62)


y(k) = C x(k) + Du(k) (3.3.63)

puede ser transformado a la forma canónica observable por medio de la siguiente


matriz de transformación
T = (W N ∗ )−1 (3.3.64)

donde
N = [C ∗ G ∗ C ∗ . . . (G ∗ )n−1 C ∗ ] (3.3.65)
3.3. Representación de sistemas en el espacio de estados 107

y  
an−1 an−2 . . . a1 1
 
an−2 an−3 ... 1 0
 
 .. 
W =  ... ..
.
..
. . (3.3.66)
 
 
 a1 1 ... 0 0
 
1 0 ... 0 0
siendo los elementos ai de la matriz W los coeficientes de la ecuación característica
del sistema indicados en la ecuación 3.3.61

Ejemplo 3.3.3: Sea un sistema un cuya representación de estado es


      
x1 (k + 1) = −1 1  x1 (k) + 0 u(k)
x2 (k + 1) 0 −1 x2 (k) 1
 
x (k)
y(k) = [1 2]  1 
x2 (k)
obtengamos las matrices de transformación T que nos permiten convertir esta
representación en las formas canónicas controlable y observable.

Solución:
La ecuación característica de este sistema sistema viene dada por

|z I − G| = z 2 + 2z + 1 = 0

y por tanto los coeficientes del polinomio son a2 = 1, a1 = 2, a0 = 1.

Forma canónica observable. La matriz de transformación para pasar esta


forma canónica era T = (W N ∗ )−1 . Como
 
h i 1 −1
N = C ∗ G∗C ∗ = 
2 −1

y    
a 1 2 1
W = 1 = 
1 0 1 0
con lo que la matriz de transformación será
108 3. Modelado y análisis de sistemas en el espacio de estados

  −1  
2 1  1 2  −2 3 
T = (W N ∗ )−1 =  =
1 0 −1 −1 1 −1
 
1 3
T −1 = 
1 −1

Las matrices G 0 , H 0 , C 0 del sistema transformado son las siguientes


     
1 3 −1 1  −2 3  0 −1
G 0 = T −1 GT =  =
1 2 0 −1 1 −1 1 −2
    
1 3 0 3
H 0 = T −1 H =  =
1 2 1 2
 
h i −2 3 h i
C0 = C T = 1 2  = 0 1
1 −1
y el sistema una vez transformado quedará

   
0 −1 0 3
x 0 (k + 1) = G 0 x 0 (k) + H 0 u(k) =  x (k) +   u(k)
1 −2 2
y(k) = C 0 x 0 (k) = [0 1]x 0 (k)

Forma canónica controlable. La matriz de transformación para pasar a la


forma canónica controlable, era T = MW . Como
 
h i 0 1
M = H GH = 
1 −1
y    
a 1 2 1
W = 1 =
1 0 1 0
con lo que la matriz de transformación será
    

T = MW = 0 1  2 1 1 0
=
1 −1 1 0 1 1
3.3. Representación de sistemas en el espacio de estados 109

 
1 0
T −1 = 
−1 1

Las matrices G 0 , H 0 , C 0 del sistema transformado son las siguientes

     
1 0 −1 1  1 0  0 1
G 0 = T −1 GT =  =
−1 1 0 −1 1 1 −1 −2
    
1 0 0 0
H 0 = T −1 H =  =
−1 1 1 1
 
h i 1 0 h i
C0 = C T = 1 2  = 3 2
1 1

Transformación a la forma canónica de Jordan

En el caso de que la matriz G del sistema tenga valores propios λ1 , λ2 , . . . , λn


diferentes, la matriz G 0 de la forma canónica de Jordan será una matriz diagonal,
de la forma
 
λ1 0 . . . 0
 
 0 λ2 . . . 0
G = T GT = 
0 −1
 .. ..

..  = 3 (3.3.67)
. . .
 
0 0 . . . λn

La matriz de transformación T puede obtenerse si se tiene en cuenta que los


vectores propios vi correspondientes a los valores propios λi cumplen la ecuación
característica |λI − G| = 0, y por tanto se tiene que:

Gv1 = λ1 v1
Gv2 = λ2 v2
.. .
. = ..
Gvn = λn vn (3.3.68)

La matriz de transformación T , se obtiene a partir de la expresión 3.3.68, re-


110 3. Modelado y análisis de sistemas en el espacio de estados

formulándola en forma matricial como:


 
λ1 0 . . . 0
 
 0 λ2 . . . 0
G[v1 v2 . . . vn ] = [v1 v2 . . . vn ] 
 .. ..

..  (3.3.69)
. . .
 
0 0 . . . λn
y llamando T a la matriz cuyas columnas son los vectores propios,
T = [v1 v2 . . . vn ] (3.3.70)
el conjunto de igualdades 3.3.69 puede expresarse como

GT = T 3 (3.3.71)
donde 3 = G 0 es la matriz diagonal que se desea obtener como resultado de la
transformación.
Ejemplo 3.3.4: Sea un sistema un cuya representación de estado es
      
x1 (k + 1) 1 0 0 x1 (k) 1
      
x2 (k + 1) = 1 −1 0 x2 (k) + 0 u(k)
      
x3 (k + 1) 0 1 2 x3 (k) 1
 
h i x1 (k)
 
y(k) = 1 2 1 x2 (k)
 
x3 (k)
obtengamos las matrices de transformación T que nos permiten convertir esta re-
presentación en la forma canónica de Jordan.
Solución:
La ecuación característica de este sistema sistema viene dada por
|λI − G| = (λ − 1)(λ + 1)(λ − 2) = 0
y por tanto los autovalores son λ1 = 1, λ2 = −1, λ3 = 2. La matriz de transforma-
ción para pasar a la forma canónica diagonal (puesto que las raíces son simples) se
obtiene a partir de los vectores propios obtenidos a partir de la siguiente expresión
Gvi = vi λi     
1 0 0 vi1  vi1 
    
1 −1 0 vi2  = vi2  λi (3.3.72)
    
0 1 2 vi3 vi3
3.3. Representación de sistemas en el espacio de estados 111

y donde T = [v1 v2 v3 ].
Sustituyendo en 3.3.72 los λi por su valor obtenemos los siguientes sistemas
de ecuaciones. Para λ1 = 1, el sistema de ecuaciones 3.3.72 queda de la siguiente
forma
v11 = v11
v11 − v12 = v12
v12 + 2v13 = v13
cuya solución nos indica que v11 se puede elegir arbitrariamente, y que v12 = 12 v11
y que v13 = −v12 . Tomando v11 = 2 nos queda que v12 = 1 y v13 = −1 con lo que
el vector propio v1 será
 
2
 
v1 =  1  (3.3.73)
 
−1
Para λ2 = −1, el sistema de ecuaciones 3.3.72 queda de la siguiente forma
v21 = −v21
v21 − v22 = −v22
v22 + 2v23 = −v23
cuya solución nos indica que v22 se puede elegir arbitrariamente, y que v23 = −1 v
3 22
y que v21 = 0. Tomando v22 = 3 nos queda que v23 = −1, con lo que el vector
propio v2 será
 
0
 
v2 =  3  (3.3.74)
 
−1
Para λ3 = 2, el sistema de ecuaciones 3.3.72 queda de la siguiente forma
v31 = 2v31
v31 − v32 = 2v32
v32 + 2v33 = 2v33
cuya solución nos indica que v33 se puede elegir arbitrariamente, y que v31 = 0 y
que v32 = 0. Tomando v33 = 1 nos queda que el vector propio v3 será
 
0
 
v3 = 0 (3.3.75)
 
1
112 3. Modelado y análisis de sistemas en el espacio de estados

La matriz de transformación T será


 
2 0 0
 
T = 1 3 0 (3.3.76)
 
−1 −1 1
y su inversa
 
1
2 0 0
 −1 
T −1 =  1
0 (3.3.77)
6 3 
1 1
3 3
1
Las matrices G 0 , H 0 , C 0 del sistema transformado son las siguientes

     
1
2 0 0 1 0 0  2 0 0 1 0 0
0 −1  −1     
G = T GT =  1
0   3 0 = 
6 3  1 −1 0  1  0 −1 0
1 1
3 3
1 0 1 2 −1 −1 1 0 0 2
    
1
2 0 0 1  12 
0      1
H = T −1 H =  −1 1
0  = 
6 3  0 − 6 
1 1 4
3 3
1 1 3
 
2 0 0
0  
C = C T = [1 2 1]  1 3 0 = [3 5 1] (3.3.78)
 
−1 −1 1

3.4. Solución de la ecuación de estado

Hasta este momento se ha estudiado como obtener una representación de esta-


do de un sistema, pero para poder analizar el comportamiento de un sistema ante
unas ciertas entradas de control es necesario que seamos capaces de determinar la
respuesta dinámica del sistema.
El cálculo de esta respuesta, dado que la representación es un conjunto de ecua-
ciones diferenciales de primer orden o de ecuaciones en diferencias, se denomina
solución de la ecuación de estado. Se verá a continuación para el caso de sistemas
lineales e invariantes en el tiempo, tanto para el caso de tiempo continuo como para
sistemas en tiempo discreto.
3.4. Solución de la ecuación de estado 113

3.4.1. Sistemas de tiempo continuo


Si consideramos un sistema lineal invariante en el tiempo definido por las ecua-
ciones de estado

ẋ(t) = Ax(t) + Bu(t)


y(t) = C x(t) + Du(t) (3.4.1)

donde las matrices A, B, C y D son matrices de dimensiones A : n × n, B : n × r ,


C : m × n y D : m × r . Y los vectores x(t),u(t) e y(t), tienen dimensiones n × 1,
r × 1 y m × 1 respectivamente. Suponiendo que el vector de estado en el instante
de tiempo inicial x(t0 ) es conocido y que se conoce la señal de entrada al sistema
u(t) para t ≥ t0 . Se trata de determinar el vector x(t) para t > t0 .
La ecuación homogénea correspondiente a la ecuación 3.4.1 es

ẋ(t) = Ax(t) (3.4.2)

cuya solución viene dada por:

x(t) = e A(t−t0 ) x(t0 ) (3.4.3)

donde x(t0 ) es el vector de condiciones iniciales, y la matriz e At puede obtenerse


desarrollando en serie de potencias como

A2 t 2 A3 t 3
e At = I + At + + + ... (3.4.4)
2! 3!
Si definimos una nueva matriz 8 de la siguiente manera

8(t) = e At (3.4.5)

la ecuación 3.4.3 puede reescribirse como

x(t) = 8(t − t0 )x(t0 ) (3.4.6)


La solución de la ecuación no-homogénea 3.4.1 será de la forma

x(t) = 8(t − t0 )C1 (t) (3.4.7)


Diferenciando la ecuación anterior con respecto a t obtenemos
d d
x(t) = A8(t − t0 )C1 (t) + 8(t − t0 ) C1 (t)
dt dt
d
= Ax(t) + 8(t − t0 ) C1 (t) (3.4.8)
dt
y si comparamos la ecuación 3.4.8 con la ecuación 3.4.1 se puede observar que
114 3. Modelado y análisis de sistemas en el espacio de estados

d
8(t − t0 ) C1 (t) = Bu(t) (3.4.9)
dt
d
En la expresión 3.4.9, despejando el término en C (t)
dt 1
e integrándolo entre t0
y t obtenemos que
Z t
C1 (t) = 8−1 (τ − t0 )Bu(τ )dτ + C2 (3.4.10)
t0

con lo que tenemos que la solución de la ecuación 3.4.1 será

x(t) = 8(t − t0 )C1 (t)


Z t
= 8(t − t0 )[ 8−1 (τ − t0 )Bu(τ )dτ + C2 ]
t0
Z t
= 8(t − t0 )C2 + 8(t − t0 ) 8−1 (τ − t0 )Bu(τ )dτ (3.4.11)
t0

Dado que

8(t − t0 )8−1 (τ − t0 ) = e A(t−t0 ) e− A(τ −t0 ) = e A(t−τ ) = 8(t − τ ) (3.4.12)

la ecuación 3.4.11 puede expresarse como


Z t
x(t) = 8(t − t0 )C2 + 8(t − τ )Bu(τ )dτ (3.4.13)
t0

Nos queda por calcular el vector constante C2 . Dicho vector lo calcularemos a


partir de las condiciones iniciales en el instante t0 . Para ello, si particularizamos la
solución de la ecuación de estado que hemos obtenido en 3.4.13 para el instante t0 ,
y dado que la integral entre t0 y t0 tiene valor nulo, tendremos que

x(t0 ) = 8(0)C2 = C2 (3.4.14)

por lo tanto la forma resultante de la solución de la ecuación de estado será


Z t
x(t) = 8(t − t0 )x(t0 ) + 8(t − τ )Bu(τ )dτ (3.4.15)
t0

La matriz 8(t) = e At se conoce como matriz fundamental del sistema o matriz


de transición.
3.4. Solución de la ecuación de estado 115

3.4.2. Obtención de la solución por el método de la


transformada de Laplace
Un método más eficaz de resolver la ecuación de estado, cuya solución nos con-
duce a una expresión de tipo integral, puede obtenerse resolviendo la ecuación de
estado en el campo complejo aplicando la transformada de Laplace. Supongamos
el sistema definido por

ẋ(t) = Ax(t) + Bu(t)


y(t) = C x(t) + Du(t) (3.4.16)

si tomamos transformadas de Laplace en ambas ecuaciones obtenemos que

s X(s) − x(0) = AX(s) + BU(s) (3.4.17)

Y (s) = C X(s) + DU(s) (3.4.18)


De la ecuación 3.4.17 se deduce que

X(s) = (s I − A)−1 x(0) + (s I − A)−1 BU(s) (3.4.19)


Si ahora hacemos la antitransformada de Laplace de la expresión anterior ten-
dremos que

x(t) = L−1 [(s I − A)−1 ]x(0) + L−1 [(s I − A)−1 BU(s)] (3.4.20)

comparando esta expresión con la solución de la ecuación de estado obtenida en


3.4.15 se puede observar que el primer término de la ecuación 3.4.20 es la solu-
ción de la ecuación homogénea para u(t) = 0 y el segundo término representa la
solución particular correspondiente a la ecuación no homogénea con entrada u(t)
distinta de cero.
Por otra parte resulta fácil obtener la expresión de la matriz fundamental 8(t)
en función de la antitransformada de Laplace ya que igualando los primeros térmi-
nos de las ecuaciones 3.4.20 y 3.4.15 resulta

x(t) = 8(t)x(0) = L−1 [(s I − A)−1 ]x(0) (3.4.21)

lo que implica que

8(t) = L−1 [(s I − A)−1 ] (3.4.22)

Ejemplo 3.4.1: Supongamos el siguiente sistema


      
d x1 (t) −2 1  x1 (t) 1
= + u(t) (3.4.23)
dt x (t) 0 −3 x (t) 2
2 2
116 3. Modelado y análisis de sistemas en el espacio de estados

sometido a una entrada escalón unitario y con estado inicial nulo.


La solución de la ecuación de estado, utilizando la transformada de Laplace,
viene dada por la siguiente expresión

x(t) = L−1 [(s I − A)−1 ]x(0) + L−1 [(s I − A)−1 BU(s)] (3.4.24)

en la que el primer término se anula puesto que el sistema tiene condiciones inicia-
les nulas. La solución queda entonces reducida a la siguiente expresión

x(t) = L−1 [(s I − A)−1 BU(s)] (3.4.25)

Obtengamos en primer lugar [s I − A] y su inversa,


 
h i s + 2 −1
sI − A =   (3.4.26)
0 s+3
 
h i−1 1 1
sI − A =  s+2 (s+2)(s+3)  (3.4.27)
1
0 s+3

y a partir de esta expresión tenemos que la respuesta del sistema en el campo de


Laplace viene dada por la siguiente expresión
    
1 1 s+5
 s+2 (s+2)(s+3)  1
1  s(s+2)(s+3) 
X(s) = [(s I − A)−1 BU(s)] = =
0 1
2 s 2
s+3 s(s+3)
(3.4.28)
Haciendo la antitransformada de Laplace de esta expresión obtenemos la solución
de la ecuación de estado.
   
s+5 3 −2t
−1  s(s+2)(s+3) 
5
6 − e + 23 e−3t 
x(t) = L = 2 (3.4.29)
2
s(s+3)
2
3
− 23 e−3t

3.4.3. Discretización de las ecuaciones de estado en tiempo


continuo
Aunque desde un punto de vista teórico resulta de gran interés el estudio de
los sistemas dinámicos en tiempo continuo, lo cierto es que el control de sistemas
basado en técnicas de espacio de estados se realiza en forma discreta. Resulta por
lo tanto de gran interés el obtener modelos de estado discretos a partir de los mode-
los matemáticos que hemos obtenido de un sistema dado. Dicho de otro modo, si
3.4. Solución de la ecuación de estado 117

hemos obtenido el modelo de estado en tiempo continuo de un sistema expresado


por

ẋ(t) = Ax(t) + Bu(t)


y(t) = C x(t) + Du(t) (3.4.30)

lo que buscamos es obtener un modelo discretizado de 3.4.30 de la forma

x(k + 1) = Gx(k) + H u(k)


y(k) = C x(k) + Du(k). (3.4.31)

Esta discretización podemos realizarla de dos formas:

Método Indirecto. Se basa en discretizar de forma convencional la función


de transferencia del sistema, para lo cual se obtiene la función de transfe-
rencia del sistema, se introducen en él un bloqueador y un muestreador, y
a continuación, se obtiene la función de transferencia discreta del sistema
para un cierto periodo de muestreo T . En un segundo paso, se convierte la
función de transferencia discreta a una representación de estado discreta por
medio de alguno de los métodos que hemos visto anteriormente.

Método Directo. En este método buscamos obtener de forma directa las ex-
presiones de G y H a partir de las matrices A y B de la representación de
estado en tiempo continuo.

El primero de los dos métodos no requiere ningún desarrollo adicional, ya que


es bien conocida la discretización de una función de transferencia y el paso de esta
a una representación de estado ya la hemos estudiado anteriormente. Podríamos
utilizar, por ejemplo, el teorema de los residuos para la discretización de un sistema
continuo. Concentremos nuestra atención en el segundo de los métodos.
Habíamos visto en 3.4.15 que la solución de la ecuación de estado continua era
Z t
A(t−t0 )
x(t) = e x(t0 ) + e A(t−τ ) Bu(τ )dτ (3.4.32)
t0

Supongamos que las variables de entrada son muestreadas y que posteriormen-


te se llevan a un bloqueador de orden cero por lo que permanecen constantes duran-
te el intervalo de tiempo T hasta el siguiente muestreo, es decir u(t) = u(t0 + kT )
para t0 + kT ≤ t < t0 + (k + 1)T . Entonces, si observamos los valores de la
solución de la ecuación de estado en el instante t0 + kT
Z t0 +kT
x(t0 + kT ) = e AkT
x(t0 ) + e A(t0 +kT −τ ) Bu(τ )dτ (3.4.33)
t0
118 3. Modelado y análisis de sistemas en el espacio de estados

y en t0 + (k + 1)T
Z t0 +(k+1)T
x(t0 + (k + 1)T ) = e A(k+1)T
x(t0 ) + e A(t0 +(k+1)T −τ ) Bu(τ )dτ (3.4.34)
t0

se puede ver que, si en la expresión 3.4.34 consideramos como estado inicial el


correspondiente al instante de tiempo t0 + kT , la expresión nos quedará de la si-
guiente forma
Z t0 +(k+1)T
AT
x(t0 + (k + 1)T ) = e x(t0 + kT ) + e A(t0 +(k+1)T −τ ) Bu(τ )dτ (3.4.35)
t0 +kT

Suponiendo por simplicidad que t0 = 0 la expresión anterior se puede expresar


como
Z (k+1)T
x((k + 1)T ) = e AT x(kT ) + e A((k+1)T −τ ) Bu(τ )dτ (3.4.36)
kT

y si en el término integral de la ecuación anterior hacemos el cambio de variable


τ = kT + t, la expresión resultante es
Z T
AT
x((k + 1)T ) = e x(kT ) + e A(T −t) Bu(kT + t)dt (3.4.37)
0

Teniendo en cuenta que las señales de entrada son muestreadas y se mantienen


constantes durante todo el intervalo, tenemos que u(kT + t) = u(kT ), con lo que
la expresión 3.4.37 podemos expresarla como
Z T
AT
x((k + 1)T ) = e x(kT ) + e A(T −t) Bu(kT )dt (3.4.38)
0

y haciendo un segundo cambio de variable, de forma que λ = T − t, la ecuación


3.4.38 se transforma en
Z T
AT
x((k + 1)T ) = e x(kT ) + e Aλ Bu(kT )dλ (3.4.39)
0

Comparando esta expresión con la ecuación de estado para un sistema de tiempo


discreto en el instante k + 1

x(k + 1) = Gx(k) + H u(k) (3.4.40)

se tiene finalmente que

G(T ) = e AT (3.4.41)
Z T
H(T ) = ( e Aλ dλ)B (3.4.42)
0
3.4. Solución de la ecuación de estado 119

En el caso de que la matriz A sea no singular, la expresión 3.4.42 puede sim-


plificarse, para ello resolvemos la integral, dando como resultado

Z T
H(T ) = ( e Aλ dλ)B
0
= A−1 [e AT − e A0 ]B
= A−1 [e AT − I]B (3.4.43)

Ejemplo 3.10 Supongamos el mismo sistema que en el ejemplo anterior


      
d x1 (t) −2 1  x1 (t) 1
= + u(t)
dt x (t) 0 −3 x2 (t) 2
2

La matriz fundamental para este sistema, utilizando la transformada de Lapla-


ce, viene dada por la siguiente expresión

8(t) = L−1 [(s I − A)−1 ]

Obtengamos en primer lugar [s I − A] y su inversa,


 
h i s + 2 −1 
sI − A = 
0 s+3
 
h i−1 1 1
sI − A =  s+2 (s+2)(s+3) 
1
0 s+3

la matriz fundamental 8(t) del sistema es


   
1 1 −2t −2t −3t
e e −e
8(t) = L−1 [(s I − A)−1 ] = L−1  s+2 (s+2)(s+3)  = 
1 −3t
0 s+3
0 e

A partir de la matriz fundamental se obtienen las matrices G(T ) y H(T ) del siste-
ma en la representación de estado de tiempo discreto con periodo T , resultando
 
−2T −2T −3T
e e −e 
G(T ) = e AT =
−3T
0 e
120 3. Modelado y análisis de sistemas en el espacio de estados

  
Z T Z T −2λ −2λ −3λ
e e − e  1
H(T ) = ( e Aλ dλ)B = dλ
0 0 0 e−3λ 2
 
−3 −2T
2e + 32 e−3T + 32 − 2
3
=
−2 −3T
3
e + 23

3.4.4. Solución de la ecuación de estado en tiempo discreto


Dado un sistema representado por las ecuaciones de estado en tiempo discreto

x(k + 1) = Gx(k) + H u(k) (3.4.44)


y(k) = C x(k) + Du(k) (3.4.45)

la solución de la ecuación de estado puede obtenerse directamente sin más que


expresar la ecuación de estado de forma recursiva

x(1) = Gx(0) + H u(0)


x(2) = Gx(1) + H u(1) = G 2 x(0) + G H u(0) + H u(1)
x(3) = Gx(2) + H u(2) = G 3 x(0) + G 2 H u(0) + G H u(1) + H u(2)
..
.

con lo que la expresión recursiva para k quedará de la siguiente forma

X
k−1
x(k) = G k x(0) + G k− j−1 H u( j) (3.4.46)
j=0

En la ecuación 3.4.46, se puede observar que, el estado del sistema en el instante k


tiene dos componentes básicas, una de ellas depende del estado inicial del sistema
en el instante 0 y la otra depende de la secuencia de entradas de control que recibe
el sistema hasta el instante k. A partir de la expresión anterior es posible expresar
la salida del sistema como

X
k−1
y(k) = C G k x(0) + C G k− j−1 H u( j) + Du(k) (3.4.47)
j=0

Es posible utilizar las ecuaciones 3.4.46 y 3.4.47 para conocer el valor de las
variables de estado y de salida en cualquier instante de tiempo k, pero tiene el
inconveniente de no darnos una expresión fácil de calcular de la solución, lo que
resulta engorroso, ya que habría que estar calculando los productos de matrices
3.4. Solución de la ecuación de estado 121

correspondientes hasta dicho instante de tiempo y operar con ellos hasta obtener el
resultado.
Resulta mucho más útil el disponer de una expresión general del estado y de
la salida de forma que los valores del estado y de salida puedan obtenerse de una
forma más simple.

3.4.5. Obtención de la solución por el método de la


transformada en z
Un método más eficaz de resolver las ecuaciones de estado discretas, es el
basado en la transformada en z. Dada la ecuación de estado

x(k + 1) = Gx(k) + H u(k) (3.4.48)

si tomamos transformadas en z en ambos lados de la ecuación 3.4.48 resulta

z X(z) − zx(0) = G X(z) + HU(z) (3.4.49)

donde X(z) = Z[x(k)] y U(z) = Z[u(k)]. Si agrupamos los términos en X(z)


tendremos que
(z I − G)X(z) = zx(0) + HU(z) (3.4.50)
Multiplicando por la izquierda en esta ecuación por la matriz (z I − G)−1 nos queda
que
X(z) = (z I − G)−1 zx(0) + (z I − G)−1 HU(z) (3.4.51)
y tomando antitransformadas en z

x(k) = Z −1 [(z I − G)−1 z]x(0) + Z −1 [(z I − G)−1 HU(z)] (3.4.52)

Si comparamos las expresiones 3.4.46 con 3.4.52 se puede deducir que

G k = Z −1 [(z I − G)−1 z] (3.4.53)

y que
X
k−1
G k− j−1 H u( j) = Z −1 [(z I − G)−1 HU(z)] (3.4.54)
j=0

para k = 1, 2, 3, . . . .

Ejemplo 3.4.2: Supongamos el sistema


      
x
 1 (k + 1) =0.8 0 (k)
  1  + 1 u(k)
x
x2 (k + 1) 0 0.5 x2 (k) 2
122 3. Modelado y análisis de sistemas en el espacio de estados

La matriz G k para este sistema, utilizando la transformada z, viene dada por la


siguiente expresión

G K = Z −1 [(z I − G)−1 z]
Obtengamos en primer lugar [z I − G] y su inversa,
   
h i z − 0.8 0  h i−1 1
0 
zI − G =  ; zI − G =  z−0.8
1
0 z − 0.5 0 z−0.5

la matriz fundamental G k será


   
z k
0  0.8 0 
G k = Z −1 [(z I − G)−1 z] = Z −1  z−0.8 =
z
0 z−0.5
0 0.5k
Por otra parte tenemos que el efecto de la entrada sobre el sistema hasta el ins-
tante k se obtenía aplicando la transformada z por medio de la siguiente expresión
X
k−1
G k− j−1 H u( j) = Z −1 [(z I − G)−1 HU(z)]
j=0

para el sistema de este ejemplo y suponiendo que la entrada al sistema es un escalón


unitario tendremos que

X
k−1
G k− j−1 H u( j) = Z −1 [(z I − G)−1 HU(z)]
j=0
   
1
0  1 z 
= Z −1  z−0.8
0 1
z−0.5
2 z−1
 
z
0
= Z −1  (z−0.8)(z−1) 
2z
0 (z−0.5)(z−1)
 
−4 · 0.8 + 5
k
0
=  
0 −2 · 0.5 + 4
k

con lo que la respuesta del sistema para un instante de tiempo k cualesquiera se


podrá obtener como:
      
x (k)
 1  0.8
k
0  x1 (0) −4 · 0.8k + 5 0 
= +
x2 (k) 0 0.5k
x2 (0) 0 −2 · 0.5 + 4
k
3.5. Modelado de las perturbaciones en el espacio de estados 123

3.5. Modelado de las perturbaciones en el espacio de estados

Si se quiere conseguir que la respuesta del sistema sea la que deseamos a pesar
de las influencias que las diferentes perturbaciones tienen sobre el sistema, resulta
necesario comprender lo que son, así como describirlas y modelarlas adecuada-
mente.
Habíamos descrito la relación entre la entrada y la salida de un sistema por
medio de la función de transferencia

Y (z) = G(s)U (s) (3.5.1)

En la práctica nunca se tiene la suerte de que la señal de salida del sistema


corresponda a esta expresión exactamente. Lo más normal es que esta expresión
haya que modificarla, dependiendo de las perturbaciones a las que esta sometido el
sistema. Una posible expresión de las salidas reales de un sistema podría ser

Y (s) = G(s)U (s) + W (s) (3.5.2)

donde la señal W (s) es denominada señal de perturbación o perturbación en la sali-


da, a secas. Indudablemente, esta perturbación es una entrada adicional al sistema,
pero a diferencia de la entrada de control no podemos utilizarla para controlar el
sistema. Las perturbaciones pueden tener diversos orígenes:

Variaciones en la carga a la que está sometido el sistema.

Errores producidos en las medidas de la salida del sistema debidos al ruido,


derivas en los sensores, errores en la transmisión de la señal, etc.

Variaciones en la planta y en los actuadores.

Simplificaciones y errores en el modelo matemático del sistema que hacen


que la salida real no coincida con la modelada.

La señal de perturbación la describiremos como un ruido blanco que se añade


directamente a la señal del sistema o como la salida de un sistema lineal generada
ante una entrada de tipo impulso o ruido blanco, tal y como se muestra en la figura
(3.9).

3.5.1. Perturbaciones en el sistema


Entre los diferentes factores que afectan a un sistema tenemos:

La señal de control u.
124 3. Modelado y análisis de sistemas en el espacio de estados

Perturbaciones
en el sistema
w(t)

N Perturbaciones
en la salida
n(t)
.
u(t) + x(t) x(t) + + y(t)
B x C
+

A
Sistema

Fig. 3.9: Sistema sometido a perturbaciones

Las perturbaciones en el sistema ω. Dentro de las perturbaciones que afectan


al sistema podemos distinguir dos tipos: las que son medibles ωm (por ejem-
plo, la temperatura del exterior de un edificio afecta a la climatización del
mismo, es una perturbación, puesto que no es controlable, pero es medible)
y las no medibles ωm .
Las perturbaciones de medida n.

Veamos como podemos representarlas matemáticamente en el espacio de esta-


dos.
Supongamos que las variables de estado del sistema están influenciadas además
de por la señal de control por perturbaciones en el sistema. Esto se podría expresar
de la siguiente forma

ẋ(t) = Ax(t) + Bu(t) + Nω(t) (3.5.3)


Las diferentes perturbaciones sobre el sistema ω pueden conocerse en muchas
ocasiones, por medio de una serie de experimentos y pruebas sobre el sistema, y en
este caso dicha información puede utilizarse para construir un modelo matemático
mejorado del sistema.
Podemos diferenciar dos situaciones, según que las perturbaciones puedan o
no predecirse :

Perturbaciones no predecibles. Si las observaciones son no predecibles,


esto quiere decir que w debe de ser ruido blanco.
3.5. Modelado de las perturbaciones en el espacio de estados 125

Dw
.
v (t) + x (t) x (t) +
v (t) F(s) w
x
w w +
w B C
w + w
Ruido blanco
w(t)

Aw
N Modelo de
las perturbaciones

. w(t)
u(t) + x(t) x(t) y(t)
B x C
+

A
Sistema

Fig. 3.10: Sistema con perturbaciones de sistema predecibles

Perturbaciones predecibles. Si las observaciones son predecibles, es decir


si w puede predecirse a partir de las observaciones realizadas hasta el ins-
tante t, esto quiere decir que tenemos contenida en ω información relevante
para la conducta futura del sistema. En este caso w(t) puede representarse
por medio de una función de transferencia y un ruido blanco vω

W (s) = F(s)Vw (s) (3.5.4)

En el caso de que las perturbaciones sobre el sistema sean predecibles (figura


3.10) estas pueden añadirse a la representación de estado del sistema. En primer
lugar formularemos el modelo de estado de las perturbaciones a partir de la función
de transferencia entre esta y el ruido blanco vω

ẋω (t) = Aω xω (t) + Bω vω (t) (3.5.5)


ωω (t) = Cω xω (t) + Dω vω (t). (3.5.6)

Si combinamos las expresiones 3.5.3 y 3.5.6 en una única ecuación de estado nos
queda

 ẋ = Ax + Bu + Nw = Ax + Bu + N Cω xω + N Dvω

... ... (3.5.7)


ẋω = Aω xω + Bω vω
126 3. Modelado y análisis de sistemas en el espacio de estados

y de aquí, la expresión matricial


        

   A N C ω  x   B  N Dω
= + u+ vω (3.5.8)
ẋω 0 Aω xω 0 Bω

Esta expresión 3.5.8 es similar a la expresión 3.5.3 con la salvedad de que


aquella información que es predecible en la perturbación la hemos introducido
en el modelo como variables de estado y hemos dejado únicamente la parte de
perturbaciones no predecibles fuera (es decir el término no incluido en el estado es
ruido blanco). Por último si compactamos esta expresión 3.5.8 tenemos

ẋa (t) = Aa xa (t) + Ba u(t) + Na vω (t) (3.5.9)

donde
       
A N Cω   B N Dω  x
Aa =  , Ba = , Na =  , xa =  (3.5.10)
0 Aω 0 Bω xω
¯

3.5.2. Perturbaciones en la medida


Si tenemos ruido de medida n(t) en el sistema y este es aditivo, es decir si se
suma a la variable medida que normalmente es la salida, la ecuación de salida viene
dada como

y(t) = C x(t) + Du(t) + n(t) (3.5.11)

Aquí podemos de nuevo tener dos posibles situaciones según sea n:

Ruido blanco. En este caso no hay ninguna información utilizable en el


ruido de medida para predecir el comportamiento del sistema, con lo que la
expresión 3.5.11 modela adecuadamente el sistema.

El ruido de medida no es blanco. Si el ruido de medida no es blanco (es


decir si no tiene un espectro constante) entonces es posible encontrar una
cierta relación

n(s) = Fn (s)V2 (s) (3.5.12)

donde v2 (t) es un ruido blanco.


3.5. Modelado de las perturbaciones en el espacio de estados 127

Dn
.
v2(t) + x (t) x (t) +
n
x
n +
B Cn
n +
Ruido blanco
v (t)
2
An
Modelo de
las perturbaciones Fn(s)

n(t)
n(t)

.
u(t) + x(t) x(t) + y(t)
+
B x C
+

A
Sistema

Fig. 3.11: Sistema con perturbaciones de salida predecibles


128 3. Modelado y análisis de sistemas en el espacio de estados

En este segundo caso (figura 3.5.2) podemos formular un modelo de estado del
ruido de medida a partir de la función de transferencia entre esta y un ruido blanco
v2 ,
ẋn (t) = An xn (t) + Bn v2 (t) (3.5.13)
n(t) = Cn xn (t) + Dn v2 (t) (3.5.14)
si combinamos las expresiones 3.5.11 y 3.5.14 en una única ecuación de estado nos
queda

       
A 0   xa  Ba  Na 0  vw 
ẋa =  a + u+ (3.5.15)
0 An xn 0 0 Bn v2
 
h i x
y(t) = C Cn   + Du + v2 (3.5.16)
xn
y si compactamos esta expresión tendremos
ẋ(t) = Ax(t) + Bu(t) + Nv1 (3.5.17)
y(t) = C x(t) + Du(t) + v2 (t) (3.5.18)
donde v1 y v2 son ruidos blancos, y podemos considerarla como la representación
estándar de sistemas con ruido de sistema y ruido de medida.

Ejemplo 3.5.1: Supongamos un modelo simple de inventario de un almacén. Sea


y(k) el nivel del inventario el día k y u 1 (k) los pedidos de producto del día k que
hace el almacén para reponer sus existencias. Estos pedidos se sirven dos días
después. Denominemos u 2 (k) a las ventas realizadas el día k. Veamos un modelo
de variación del inventario del almacén.

Solución:
Supongamos en una primera aproximación que el nivel de ventas se conside-
ra simplemente como una variable de entrada al sistema. El nivel del inventario
correspondería a la siguiente ecuación

y(k) = y(k − 1) + u 1 (k − 2) − u 2 (k − 1) (3.5.19)


Si tomamos como entradas u 1 y u 2 y el estado del sistema lo caracterizamos
por medio del nivel de inventario en el almacén y de los pedidos realizados pero
aún no recibidos,
   
u (k) y(k) 
u(k) =  1  x(k) =  (3.5.20)
u 2 (k) u 1 (k − 1)
3.6. Ejemplos de sistemas físicos 129

Entonces la representación de estado del sistema será

   
1 1 0 −1
x(k + 1) =   x(k) +   u(k)
0 0 1 0
h i
y(t) = 1 0 x(k) (3.5.21)

Supongamos ahora que queremos refinar más el modelo, para ello podemos
considerar las ventas del almacén, como una señal de perturbación, puesto que no
tenemos ninguna capacidad de control sobre ellas. Si suponemos que u 2 (k) = v(k)
y que u 1 (k) = u(k) el modelo quedará de la siguiente forma

     

x(k + 1) = 
1 1 x(k) +   u(k) + −1 v(k)
0
0 0 1 0
h i
y(t) = 1 0 x(k) (3.5.22)

3.6. Ejemplos de sistemas físicos

Ejemplo 3.6.1: Considérese el sistema de la figura 3.12 formado por dos masas
M = 10K g y m = 1K g unidas por un muelle de coeficiente de elasticidad K =
1N /m y de coeficiente de rozamiento viscoso f = 1N s/m. La entrada al sistema
es la fuerza u con la que se desea controlar la posición y. La posición de la primera
masa es y, de la segunda masa es d. Obtener el modelo en variables de estado del
sistema.

y d
f
u
M m
K

Fig. 3.12: Sistema del ejemplo 3.6.1

Solución:
130 3. Modelado y análisis de sistemas en el espacio de estados

Las dos ecuaciones de equilibrio de fuerzas referida a la primera y segunda


masas, respectivamente son

M ÿ + f ( ẏ − ḋ) + K (y − d) = u (3.6.1)

m d̈ + f (ḋ − ẏ) + K (d − y) = 0 (3.6.2)


Como variables de estado elegimos las posiciones de las masas y sus respecti-
vas velocidades

x1 = y; x2 = ẏ, x3 = d, x4 = ḋ
De esta forma, las ecuaciones de equilibrio de fuerzas, en variables de estado
quedan como
M ẋ2 + f (x2 − x4 ) + K (x1 − x3 ) = u
m ẋ4 + f (x4 − x2 ) + K (x3 − x1 ) = 0
Las ecuaciones de estado de este sistema quedan de la siguiente forma

ẋ1 = x2
1 u
ẋ2 = − ( f x2 − f x4 + K x1 − K x3 ) +
M M
ẋ3 = x4
1
ẋ4 = − ( f x4 − f x2 + K x3 − K x1 )
m
y la ecuación de salida es
y = x1

Ejemplo 3.6.2: Sea el sistema hidráulico representado en la figura 3.13, consis-


tente en dos depósitos D1 y D2 de superficie transversal A1 y A2 , llenos de agua a
niveles h 1 y h 2 , y con dos válvulas de paso con resistencia hidráulica R1 y R2 . Sea
la señal de entrada el caudal qe y la señal de salida el caudal q1 . Se desea obtener
el modelo del sistema en variables de estado.
Solución:En el sistema existen dos elementos independientes que almacenan ener-
gía: los dos depósitos. Por tanto, bastarán dos variables de estado para definir el
comportamiento dinámico del sistema. Las ecuaciones físicas del sistema (lineali-
zadas) serán:
1
q1 = (h 1 − h 2 )
R1
1
q2 = h2
R2
qe − q1 = A1 ḣ 1
3.6. Ejemplos de sistemas físicos 131

qe
T A2
A1

h1 D1 h2 D2
R1 R1
T T
q1 q
2

Fig. 3.13: Sistema del ejemplo 3.6.1

q1 − q2 = A2 ḣ 2
Eligiendo las variables de estado x= h 1 , x2 = h 2 , y siendo la entrada y la salida
u = qe e y = q1 y operando, las ecuaciones de estado del sistema son
1 1 1
ẋ1 = − x1 + x2 + u
R1 A 1 R1 A 1 A1
1 R1 + R2
ẋ2 = x1 − x2
R1 A 1 R1 R2 A 2
y la ecuación de salida es
1 1
y= x1 − x2
R1 R1
Ejemplo 3.6.3: Considérese el caso de zorros y conejos de Australia. Estudiar la
estabilidad de este ecosistema y obtener la matriz de transición de estados.
Solución:El número de conejos, x1 si se dejan solos, crecería indefinidamente,
hasta que el suministro de alimentos se agotara. De esta forma
ẋ1 = K x1
Sin embargo, con los zorros que hay en el continente, tenemos
ẋ1 = K x1 − ax2
donde x2 es el número de zorros. Dado que los zorros deben tener conejos para
subsistir, su evolución será
ẋ2 = −hx2 + bx1
Para estudiar la estabilidad, hay que estudiar el signo de los valores propios de la
matriz (s I − A)
     

s 0 K −a (s − K ) a
|s I − A| =  −  = 



0 s b −h −b (s + h)
132 3. Modelado y análisis de sistemas en el espacio de estados

= (s − K )(s + h) + ab = s 2 + s(h − K ) + ab − K h
Para que valores propios sean negativos es necesario que los coeficientes de la
ecuación de segundo orden sean positivos. Esto implica que h > K y ab > K h.
Suponiendo que los coeficientes sean K = 1, h = 3 y a = b = 2 la matriz de
transición de estados 8 queda
 
−t −t
(2t + 1)e −2te
8(t) = L−1 [(s I − A)−1 ] =  
−t −t
2te (−2t + 1)e
BIBLIOGRAFíA

[1] S. Domínguez, P. Campoy, J.M. Sebastián, A. Jiménez, Control en el espacio


de estados, Prentice Hall, 2002. 1991.

[2] T. Glad, L. Ljung Control Theory Taylor and Francis, 2000.

[3] K. Ogata, Discrete-Time Control Systems, Prentice Hall International Edi-


tion, 1995.

[4] K. Ogata, Ingeniería de control moderna, Prentice Hall, 1998.

[5] V. Strejc, State Space Theory of Discrete Linear Control, John Wiley and
Sons, 1981.
134 Bibliografía
4. MODELADO Y ANÁLISIS DE SISTEMAS
NO-LINEALES

4.1. Conceptos básicos

Hasta el momento, todos los sistemas analizados eran lineales, es decir, la re-
lación entre las variables era lineal. No obstante, en la naturaleza existen pocos
sistemas lineales. Existe un gran número de sistemas que son no-lineales y que
requieren unas técnicas diferentes de las vistas hasta ahora. En este capítulo se es-
tudiarán las técnicas de modelado de estos sistemas, que básicamente se reducen
a dos: función descriptiva y plano de fase. Las no-linealidades, aunque pueden ser
suaves o pronunciadas, se pueden dividir en dos grandes tipos, en función de su
naturaleza:

Funciones analíticas simples, desarrollables en serie de Taylor y que, por tanto,


tienen todas sus derivadas. Entre estas funciones se encuentran las funciones
potenciales, sinusoidales o productos de éstas. Presentan una variación sua-
ve. La forma de tratar esta no-linealidad es la linealización alrededor de un
punto de funcionamiento.
La figura 4.1 representa la relación no-lineal f entre las variables x1 y x2 .
Esta función se sustituye por otra lineal determinada por ∂∂ xx21 en el punto
de funcionamiento del sistema (x10 , x20 ). La nueva función lineal será una
buena aproximación de la función de partida si no nos alejamos mucho del
punto de funcionamiento, y por tanto, el error no crecerá mucho entre ambas.
En este capítulo no se analizarán estas no-linealidades ya que normalmente
son pequeñas y su análisis corresponde a la linealización de sistemas en la
teoría clásica de control.

Funciones lineales a trozos o no-linealidades pronunciadas tales como: re-


lé, saturación, zona muerta, precarga y rectificación. No son funciones analí-
ticas pero, sin embargo, dentro de cada zona el tratamiento es prácticamente
lineal.
La figura 4.2 presenta ejemplos de este tipo de no-linealidades entre la en-
trada E(t) y la salida S(t).
136 4. Modelado y análisis de sistemas no-lineales

x2
∂ x2 x2=f(x1)
∂ x1
x20

error

x10 x1

Fig. 4.1: Linealización de funciones analíticas simples (variación suave)

S S S S

E E E E

a) b) c) d)

Fig. 4.2: Gráficas correspondientes a no-linealidades pronunciadas: a) relé, b) sa-


turación, c) zona muerta y d) precarga

Funciones multivaluadas, tales como: relés con histéresis, histéresis magnética


y huelgo (backlash). Estas gráficas pueden ser simétricas o no simétricas,
pueden presentar efectos de histéresis, consistente en que según la evolución
temporal de la entrada, la salida adopta un camino u otro, como se puede ver
en la figura 4.3.

Las no-linealidades de este tipo pueden aparecer junto con sistemas lineales,
como se puede ver en la figura 4.4.
4.2. Efectos de las no-linealidades 137

S S S
M M
M

-A
-A A E E A E

-M
-M -M

a) b) c)

Fig. 4.3: Gráficas correspondientes a funciones multivaluadas: a) relé con histére-


sis, b) histéresis magnética y c) huelgo (backlash)

r(t) x(t) y(t) c(t)


Sistema
lineal

Fig. 4.4: Sistema con bucle de realimentación que consta de una parte lineal y otra
no-lineal

4.2. Efectos de las no-linealidades

Los efectos que introducen las no-linealidades respecto a los sistemas lineales
son muchos y muy diferentes. Por tanto, el estudio de estos efectos es de suma
importancia a la hora de analizar el comportamiento de los sistemas no-lineales.
Entre estos efectos debidos a la presencia de no-linealidades en el sistema tenemos:

Aparición de nuevas frecuencias sobre el sistema.


En los sistemas lineales, a una entrada sinusoidal x(t) = A sen(ωt) corres-
ponde, en régimen permanente, una salida y(t) = B sen(ωt + φ), es decir
se modifica su amplitud pero no su frecuencia. Al trabajar con sistemas no-
lineales vemos que también se modifica su frecuencia, es decir aparecen nue-
vos armónicos y desarrollando la salida
P en serie de Fourier se tendrán nuevos
coeficientes no nulos: y(t) = A20 + ∞ n=1 [An cos(nωt) + Bn sen(nωt)]. Ade-
más, como sabemos, los sistemas lineales se comportan bien en operaciones
como la suma y el producto por escalares, pero cuando se introduce en un
sistema no-lineal una suma de dos señales sinusoidales de diferentes frecuen-
cias, pueden aparecer en la salida frecuencias que son combinación lineal de
las señales de entrada.
138 4. Modelado y análisis de sistemas no-lineales

Resonancias de salto.
Consideremos el sistema de la figura 4.5 con la fuerza f (t) = 0. Este es un

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxx
xxxxxxxx
k xxxxxxxx
xxxxxxxx b

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
m
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
y

f(t)

Fig. 4.5: Sistema mecánico con masa, muelle y amortiguador

sistema característico de segundo orden cuando los elementos son lineales:


m ÿ + b ẏ + ky = 0.
Cuando los desplazamientos son grandes, la aproximación de linealidad deja
de ser válida y hay que sustituir ky por ky + k 0 y 3 , con lo que se obtiene la
ecuación de Duffy:
m ÿ + b ẏ + ky + k 0 y 3 = 0 (4.2.1)

Si k 0 > 0 se dice que el muelle es duro y si k 0 < 0 se dice que el muelle es


blando.
Si aplicamos una fuerza sinusoidal f (t), aparecen las resonancias de salto,
que se pueden ver en la figura 4.6:

Y Y

ω ω
a) b)

Fig. 4.6: Gráficas de amplitud en función de la frecuencia para un sistema con


muelle a) duro y b) blando

Variación de la amplitud de la salida.


4.2. Efectos de las no-linealidades 139

Dependiendo de la amplitud de la señal sinusoidal de entrada la salida puede


variar mucho. En algunos casos, este efecto puede llegar a ser positivo, ya
que puede estabilizar el sistema.

Pérdida de la precisión estática.


Se pierde precisión estática y puede haber más de un punto de equilibrio. El
punto puede depender de las condiciones iniciales. Por ejemplo, la fricción
puede producir una banda de fricción.

Tiempos de respuesta de tipo distinto a exponenciales reales o complejas


Pueden aparecer respuestas de tipo distinto a exponenciales reales o comple-
jas (fig 4.7a), como se puede ver en la figura 4.7b.

1 4

0.8 3
0.6
2
0.4
1
0.2

0 0

−0.2 −1
−0.4
−2
−0.6
−3
−0.8

−1 −4
0 2 4 6 8 10 0 2 4 6 8 10
a) b)

Fig. 4.7: Respuesta de tipo a) exponencial decreciente y b) de tipo distinto (lineal


decreciente)

Aparición de ciclos límite.


Las oscilaciones autoexcitadas, es decir, con entrada cero (estando el sistema
en reposo) o ciclos límite son oscilaciones no-lineales con frecuencia fija y
cuya amplitud no depende de las condiciones iniciales. Un ejemplo típico de
este comportamiento es la ecuación de Van der Pol: m ẍ − b(1 − x 2 )ẋ + kx =
0, donde m, b y k son constantes positivas. Esta ecuación tiene un amortigua-
miento no lineal: para valores pequeños de x el amortiguamiento es negativo
(la energía del sistema aumentará) y para valores grandes es positivo (la ener-
gía del sistema disminuirá). Por tanto es de esperar que el sistema presente
oscilaciones mantenidas (figura 4.8), inclusive con entrada cero.
140 4. Modelado y análisis de sistemas no-lineales

3
3

2
2

1
1

0 0

−1 −1

−2 −2

−3 −3
0 5 10 15 20 −3 −2 −1 0 1 2 3
a) b)

Fig. 4.8: Respuesta de la ecuación de Van der Pol

4.3. Función descriptiva

Si sometemos un sistema lineal a una entrada sinusoidal, la salida también es


sinusoidal. En el caso de los sistema no-lineales la salida no será sinusoidal, pero
podemos desarrollarla en serie de Fourier.
No obstante, analizando el esquema de la figura 4.4, se puede hacer la aproxi-
mación de que la salida y(t) tiene la misma frecuencia que la entrada x(t), puesto
que los sistemas lineales que se encuentran a continuación de los no-lineales sue-
len ser filtros pasabajos y por tanto, el primer armónico es el dominante. El primer
armónico es la sinusoide que más se aproxima a la respuesta del sistema.

Hipótesis

Si la entrada del elemento no-lineal es sinusoidal, su salida debe ser periódica


y su periodo debe ser el mismo que el de entrada.

Se supone una única no-linealidad o al menos una predominante.

Se supone que sólo es significativa la componente armónica fundamental de


la salida y(t).

Sólo se analiza el dispositivo no-lineal y la entrada es sinusoidal.

Definición 4.3.1 (Función Descriptiva.): La función descriptiva es la razón com-


pleja entre el primer armónico de salida y el primer armónico de entrada. Si con-
sideramos la entrada x(t) = X sen(ωt), la salida y = F(X sen(ωt)), se puede
desarrollar en serie de Fourier:
4.3. Función descriptiva 141


A0 X
F(X sen(ωt)) = + [An cos(nωt) + Bn sen(nωt)]
2 n=1

(4.3.1)
A0 X
= + [Yn sen(nωt + φn )]
2 n=1

donde el módulo de la salida Y y la fase φ para los diferentes n son:


q  
An
Yn (X, ω) = An + Bn , y φn (X, ω) = arctan
2 2 (4.3.2)
Bn

Dado que el armónico más significativo es el principal, n = 1 y la función descrip-


tiva es  
Y1 jφ1 Y1  Y1 A1
N (X, ω) = e = φ1 = arctan (4.3.3)
X X X B1

4.3.1. Método de obtención de la función descriptiva dada la


característica entrada-salida de la no-linealidad
El método de obtención de la salida de un sistema no-lineal se basa en el des-
arrollo en serie de Fourier de la salida y en la comprobación gráfica del resultado.
Los pasos para su cálculo son:

Representar la entrada E, x(t) = X sen(t) frente ωt, entre 0 y 2π.

Obtener mediante la característica entrada-salida no-lineal la gráfica de y(t)


frente a ωt.

Obtener la función descriptiva mediante desarrollo en serie: N = YX1 φ1 =
 
Y1 A1
X
arctan B1

Ejemplo 4.3.1: Hallar la función descriptiva de un relé.


Solución:
Se representa en primer lugar la entrada sinusoidal, frente a la curva de respues-
ta del dispositivo no-lineal, y para esta entrada sinusoidal se observa que cuando
es positiva, la salida del relé toma el valor +M, y cuando la señal sinusoidal es
negativa, la salida del relé es −M. Tal y como se muestra en la figura 4.9, el resul-
tado es una señal cuadrada de tipo periódico y con el mismo periodo que la señal
sinusoidal de entrada. Desarrollando en serie de Fourier esta salida, se tiene

X
y(t) = [An cos(nωt) + Bn sen(nωt)]
n=1
142 4. Modelado y análisis de sistemas no-lineales

2M 2M

M M

0 0

−M −M

−2M −2M
−1 0 1 0 1 2 3 4 5 6 7 8 9 10
0

−1

−2

−3

−4

−5

−6

−7

−8

−9

−10
−1 0 1

Fig. 4.9: Entrada-salida correspondiente a un relé

Como la salida es impar, los coeficientes An son cero (n = 0, 1, 2, . . . ), y por tanto



X
y(t) = [Bn sen(nωt)]
n=1

Ante una entrada


x = X sen(ωt)
el armónico fundamental es
y1 = B1 sen(ωt)
Z Z
1 2π
2 π 2 4M
B1 = y(t) sen(ωt) d(ωt) = M sen(ωt) d(ωt) = M[− cos(ωt)]π0 =
π 0 π 0 π π
4M
y1 (t) sen(ωt) 4M
N= = π =
x(t) X sen(ωt) πX
La función descriptiva de un relé es real (el desfase es cero) y es función única-
mente de la amplitud de la señal de entrada (figura 4.10), no dependiendo de la
frecuencia ω. El otro parámetro del que depende N es la amplitud M del relé.
Y1  4M
N= φ1 = (4.3.4)
X πX
Como se puede observar en la gráfica de la salida de la figura 4.9, la salida real
se acerca bastante a la salida obtenida utilizando el modelo de la función descrip-
tiva.
4.3. Función descriptiva 143

10

6
N(X)

5
m=4/pi

0
0 1 2 3 4 5 6 7
M/X

Fig. 4.10: Función descriptiva de un relé

Ejemplo 4.3.2: Hallar la función descriptiva de una saturación (figura 4.11).


Solución:
En la figura 4.11 se observa que en la zona en la que la saturación se comporta
linealmente, la salida del dispositivo no-lineal coincide con la entrada (sin tener
en cuenta la ganancia debida a la ganancia K ) y una vez que la señal de entrada
supera K s/K o es inferior a −K s/K , la salida toma el valor K s o −K s. Esto da
como resultado una señal sinusoidal recortada para valores por encima de K s o por
debajo de −K s, tal y como se aprecia en la figura.
En el punto γ se verifica γ = ωt1 , X sen(ωt1 ) = s, γ = arc sen(s/ X ),
sen(ωt1 ) = s/ X . Por tanto,

 K X sen(ωt), 0 ≤ ωt ≤ γ
y1 (t) = π
 K s, γ ≤ ωt ≤
2
El primer armónico es
y1 (t) = B1 sen(ωt)
Z Z π
1 2π 4 2
B1 = y(t) sen(ωt) d(ωt) = y(t) sen(ωt) d(ωt)
π 0 π 0
"Z Z π #
γ
4 2
2
= K X sen (ωt) d(ωt) + K s sen(ωt) d(ωt)
π 0 γ
144 4. Modelado y análisis de sistemas no-lineales

K K

Ks Ks

0 0

−Ks −Ks

−K K
−1 0 1 0 2 4 6 8 10
0

−1

−2

−3

−4

−5

−6

−7

−8

−9

−10
−1 0 1

Fig. 4.11: Entrada-salida correspondiente a una saturación

" r #
2K X s  s 2
B1 = γ+ 1−
π X X
La función descriptiva es
" r #
Y1  2k s s  s 2
N= φ1 = arc sen + 1− (4.3.5)
X π X X X

La función descriptiva es real y, por tanto, no hay desfase de la señal, solo


depende de la amplitud de la señal de entrada (figura 4.12).
4.3. Función descriptiva 145

1.2

0.8
N/k

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1 1.2
s/X

Fig. 4.12: Función descriptiva de una saturación

Ejemplo 4.3.3: Hallar la función descriptiva de una zona muerta (figura 4.13).
Solución:
En la figura 4.13 está representada la respuesta de esta no-linealidad ante una en-
trada sinusoidal, se puede observar que para valores de entrada entre −A y A la
salida es cero, y que para valores de señal por encima de +A o inferiores a −A la
salida es |(E − A)K |, de aquí que el primer armónico de la señal de salida será:

y1 (t) = B1 sen(ωt)
Z
1 2π
B1 = y(t) sen(ωt) d(ωt)
π 0
Z π
4 4
= y(t) sen(ωt) d(ωt)
π 0

 0, 0 ≤ ωt ≤ γ
y1 (t) = π
 k[X sen(ωt) − A], γ ≤ ωt ≤
2
Z π
4 2
B1 = k[X sen(ωt) − A] sen(ωt) d(ωt)
π γ
"Z π Z π #
4k 2
2
2
= X sen (ωt) dωt − A sen(ωt) dωt
π γ γ
146 4. Modelado y análisis de sistemas no-lineales

−1 0 1 0 2 4 6 8 10
0

−1

−2

−3

−4

−5

−6

−7

−8

−9

−10
−X 0 X

Fig. 4.13: Entrada-salida correspondiente a una zona muerta


Como A = X sen(γ ), se tiene γ = arc sen XA Por tanto,
"Z π Z π #
4X k 2
2
2
B1 = sen (ωt) dωt − sen γ sen(ωt) dωt
π γ γ

 s 
   2
2X k  π A A A 
= − arc sen − 1−
π 2 X X X

La función descriptiva de la zona muerta es


 s 
   2
Y1  2k  A A A 
N= φ1 = k − arc sen − 1− (4.3.6)
X π X X X

La función descriptiva de una zona muerta es cuasi-lineal (figura 4.14).


4.3. Función descriptiva 147

0.9

0.8

0.7

0.6
N/k

0.5

0.4

0.3

0.2

0.1

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
A/X

Fig. 4.14: Función descriptiva de una zona muerta

Ejemplo 4.3.4: Hallar la función descriptiva de un huelgo (figura 4.15).


Solución:
En la figura 4.15 se puede observar la respuesta de este tipo de no-linealidad. Su-
ponemos que para E = 0 estamos inicialmente en la recta 4 − 1, a medida que E
aumenta, nos movemos hacia el punto 1 en la recta 4 − 1, por lo que la salida es
constante de valor −K (A − b). Cuando E supera el valor 1, la respuesta cambia a
la recta 1 − 2, que tiene pendiente K , por lo que en esta zona es la señal sinusoidal
multiplicada por K . Cuando la señal supera el punto 2, empieza a moverse por la
recta 3 − 2 hasta el valor máximo de E y luego vuelve por la misma hasta el punto
3. En toda esta zona el valor de salida es constante y de valor K (A − b). A conti-
nuación y ya en la parte negativa de la señal E la salida sigue la recta 3 − 4, que
tiene ganancia K , por lo que la curva de salida es una sinusoidal negativa, multi-
plicada por K . A partir del punto 4 nos movemos hacia el extremo izquierdo por la
recta 4 − 1 y luego hacia la derecha por la misma recta dando en la salida durante
toda esta zona un valor −K (A − b). De esta señal de salida se puede deducir que
el primer armónico es:

y1 = A1 cos ωt + B1 sen ωt

Considerando γ = ωt1 se tiene

A sen(γ ) = A − 2(A − b) = A − 2b, γ = arc sen(1 − 2b/A)


148 4. Modelado y análisis de sistemas no-lineales

−1 0 1 0 2 4 6 8 10
0

−1

−2

−3

−4

−5

−6

−7

−8

−9

−10
−X 0 X

Fig. 4.15: Entrada-salida correspondiente a un huelgo

Z 2π Z γ
1 1
A1 = y(t) cos(ωt) dωt = −k(A − b) cos(ωt) dωt
π 0 π 0
Z π Z π −γ
2
+ k(A sen(ωt) cos(ωt) dωt + k(A − b) cos(ωt) dωt
γ π/2
Z 3π Z #
2 2π −γ
+ k(A sen(ωt) + b) cos(ωt) dωt + −k(A − b) cos(ωt) dωt

π −γ 2
 
4kb b
= −1 .
π A
4.3. Función descriptiva 149

Z 2π Z γ
1 1
B1 = y(t) sen(ωt) dωt = −k(A − b) sen(ωt) dωt
π 0 π 0
Z π Z π −γ
2
+ k(A sen(ωt) sen(ωt) dωt + k(A − b) sen(ωt) dωt
γ π/2
Z 3π Z #
2 2π −γ
+ k(A sen(ωt) + b) sen(ωt) dωt + −k(A − b) sen(ωt) dωt

π −γ 2
 s 
     2
Ak  π 2b 2b 2b
= − arc sen −1 − −1 1− − 1 .
π 2 A A A

La función descriptiva es
q   
Y1  1 A1
N (A) = φ1 = A21 + B12 arctan (4.3.7)
X A B1

Ejemplo 4.3.5: Hallar la función descriptiva de un relé con histéresis (figura


4.16).

-X 0 X 0 2 4 6 8 10
0

-1

-2

-3

-4

-5

-6

-7

-8

-9

-10
-X 0 X

Fig. 4.16: Entrada-salida correspondiente a un relé con histéresis


150 4. Modelado y análisis de sistemas no-lineales

Solución:
Consideramos en qué punto se verifica que x(t) = A :
r
A h2 1p 2
X sen(ωt1 ) = A ⇒ sen(ωt1 ) = ⇒ cos(ωt1 ) = 1 − 2 = X − h2
X X X
Aplicamos las fórmulas utilizadas anteriormente para n=1,
Z Z ωt1 Z π+ωt1
1 2π 1
A1 = y(t) cos(ωt)dωt = −m cos(ωt)dωt + m cos(ωt)dωt
π 0 π 0 ωt1
Z 2π 
m 
+ −m cos(ωt)dωt = − sen(ωt)|ωt π +ωt1
0 + sen(ωt)|ωt1
1
− sen(ωt)|2π
π +ωt1
π +ωt1 π
   
m h h h h 4mh
= − + − − − =−
π X X X X πX

Z Z ωt1 Z π +ωt1
1 2π 1
B1 = y(t) sen(ωt)dωt = −m sen(ωt)dωt + m sen(ωt)dωt
π 0 π 0 ωt1
Z 2π 
m 
+ −m sen(ωt)dωt = − cos(ωt)|ωt π +ωt1
0 + cos(ωt)|ωt1
1
− cos(ωt)|2π
π +ωt1
π +ωt1 π
m hp 2  p p   p i
= X − h2 − X 2 + X 2 − h2 + X 2 − h2 + X 2 + X 2 − h2
πX
4mh p 2
=− X − h2
πX
El módulo y la fase del primer armónico son:
s
q    
4mh 2 4m 2 2 4m p 2 4m
Y1 = A1 + B1 =
2 2
+ (X − h 2 ) = h + X 2 − h2 =
πX πX πX π

−h 1
φ1 = arctan √ = − arctan q
X 2 − h2 X2
−1
h2

Como
sen ωt1 h
φ1 = arctan = −ωt1 = arc sen
cos ωt1 X
se tiene que la función descriptiva es

Y1  4m h
N= φ1 = − arc sen (4.3.8)
X πX X

Como se puede ver, introduce un desfase de ωt1 respecto de la función descriptiva


de un relé normal.
4.4. Análisis por función descriptiva 151

1.4 0

1.2 −0.2

−0.4
1

−0.6
0.8

arg(hN/m)
|hN/m|

−0.8

0.6
−1

0.4
−1.2

0.2
−1.4

0 −1.6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
h/X h/X

Fig. 4.17: Módulo(a) y argumento(b) de la función descriptiva de un relé con his-


téresis

4.4. Análisis por función descriptiva

Sea el sistema de control no-lineal de la figura 4.18. Si los armónicos generados

r(t) + x(t) Elementos m(t) Elementos y(t)


- no lineales N lineales G

Fig. 4.18: Sistema no-lineal con parte lineal

por la salida del sistema se atenúan suficientemente, de modo que sólo es signifi-
cativo el primer armónico, la función descriptiva se puede tratar como si fuera una
ganancia compleja.
La respuesta frecuencial del sistema en bucle cerrado se puede aproximar por

Y ( jω) N G( jω)
M( jω) = = (4.4.1)
R( jω) 1 + N G( jω)

y la ecuación característica por 1 + N G( jω) = 0. Por tanto, los puntos de interés


son aquellos que verifican
1
G( jω) = − (4.4.2)
N
Si nos interesa el estudio de estabilidad de este tipo de sistemas (inclusive con
r = 0) habrá que proceder como sigue:
152 4. Modelado y análisis de sistemas no-lineales

4.4.1. Estudio de la estabilidad del sistema


Vamos a adoptar el criterio de Nyquist 1 , pero en vez de referirnos al punto
(−1, 0), nos referiremos al punto complejo (−1/N ), que es el que está relacionado
con la no-linealidad del sistema 4.4.2.
Trazar el lugar −1/N

Trazar el lugar G( jω). Se supone que todos sus polos y ceros están en el
semiplano izquierdo del plano s.

Criterio de Estabilidad
Recordando el criterio de Nyquist, en el que para un sistema con ecuación carac-
terística 1 + G( jω) = 0 era inestable si rodeaba al punto (−1, 0). En nuestro caso
de sistemas no-lineales, el punto (-1,0) se sustituye por (-1/N,0). De esta forma
tendremos que:
Si el lugar −1/N está rodeado por el lugar G( jω), entonces el sistema es
inestable.

Si el lugar −1/N no está rodeado por el lugar G( jω), entonces el sistema es


estable.

Si los lugares −1/N y G( jω) se cortan, la salida puede presentar oscilacio-


nes mantenidas (ciclo límite). Un ciclo límite se puede aproximar por una
función sinusoidal con amplitud es la de −1/N (A, ω) y cuya frecuencia es
igual a G( jω) en el punto de corte.
Todo ello es cierto si el sistema lineal es de fase mínima, es decir, tiene todos
los ceros en el semiplano negativo.

4.4.2. Aplicación a la estabilidad de los ciclos límites


La existencia de ciclo límite significa que el sistema, sin ningún tipo de entrada,
tendrá oscilaciones a la salida, con amplitudes que pueden ser importantes.

Ejemplo 4.4.1: Consideremos el sistema lineal en bucle cerrado, con función de


transferencia en bucle abierto
4
G(s) = .
(s + 1)2
Si la entrada es cero, la salida también es cero, pero si introducimos en el sistema
una histéresis, ante entrada cero, se obtiene una salida oscilante. En el ejemplo de
1 En este apartado se supone que el lector está familiarizado con la teoría clásica de control. Para
más información véase el apartado 5.1.3.
4.4. Análisis por función descriptiva 153

1.5

1
4
0.1 2
0.5
0 0
0 −0.1 −2

x
x
−4
−0.5 −0.2
−6
−0.3
−1 −8
−2 0 2 4 −2 0 2 4
t t
−1.5

−2
−2 −1 0 1 2
x

1.5

1 1 2
0.5
1
0
x

x
0
−0.5

−1
−1 −1
0 5 t
10 15 0 5 10 15
t
−1.5

−2
−2 −1 0 1 2
x

Fig. 4.19: Ciclo límite inestable y estable y curvas típicas de x en función de t

la figura 4.19, en el primer caso, si partimos de valores medianos llegaremos al


origen sin oscilación, mientras que si partimos de valores mayores, la trayectoria
es divergente y, por tanto, el ciclo límite es inestable. En el segundo caso, sea cual
sea la condición inicial, llegaremos siempre al mismo ciclo límite.

0 4
salida 0
(s+1)2

1.2
0 4
(s+1)2

Fig. 4.20: Ejemplo de ciclo límite

La oscilación o ciclo límite de un sistema es perjudicial, como se puede ver en


la figura 4.20, que con entrada cero la salida es oscilante, por lo que intentaremos:

1. Detectar el ciclo límite (amplitud de la oscilación y su periodo).


154 4. Modelado y análisis de sistemas no-lineales

2. Eludir el ciclo límite mediante alguna estrategia de control.

Solución:
A partir de la función descriptiva, vamos a estudiar las condiciones bajo las cuales
se genera el ciclo límite y sus características. El primer paso es descomponer el
sistema en su parte lineal y su parte no lineal. A continuación se sustituye el bloque
no lineal por su función descriptiva, que es la linealización de dicho bloque.
Denominando a la función descriptiva de la parte no lineal N (A, ω) y a la
parte lineal como G( jω), la ecuación característica del sistema linealizado en bucle
cerrado es 1 + N (A, ω)G( jω) = 0.
Si se representan las funciones −1/N (A, ω) y G( jω), los puntos de corte re-
presentan las soluciones de

1
G( jω) = − ,
N (Ai , ω)

donde Ai es la amplitud de las oscilaciones de la salida (Fig.4.21).


-1/N(A3.ω) -1/N(A1.ω)
-1/N(A2.ω)

ω=inf

G(jω)

Fig. 4.21: Representación de G( jω) y de −1/N (Ai , ω)

En el caso de amplitud A2 , en la figura sólo hay un punto de cruce, y sólo habrá


un ciclo límite. Para A1 , hay dos puntos de cruce, A y B y habrá dos ciclos límites,
uno estable y otro inestable. Para A3 , no existe ningún punto de cruce por lo que
no existirá ciclo límite.
Nota: Una vez que se ha detectado la presencia en el sistema de ciclos límites,
es necesario determinar la estabilidad de éstos, ya que en ocasiones su aparición es
transitoria por no ser ciclos límites estables. Para analizar si los ciclos límites son o
no estables recordemos el criterio de estabilidad de Nyquist para sistemas de fase
mínima.
4.4. Análisis por función descriptiva 155

Criterio de Nyquist para sistemas de fase mínima Los sistemas que tie-
nen una función de transferencia sin polos ni ceros en el semiplano derecho del
plano s o sobre el eje jω incluyendo el origen, son de fase mínima. La mayoría de
las funciones de transferencia encontradas en el mundo real son de fase mínima.
Por tanto, es lógico estudiar la aplicación del criterio de Nyquist a este tipo de sis-
temas. El criterio de Nyquist establece que N = Z − P, donde N es el número de

r(t) y(t)
G(s)
+ -
H(s)

Fig. 4.22: Sistema en bucle cerrado

vueltas alrededor del punto (−1, 0) realizados por la traza de G(s)H (s), Z es el
número de ceros de G(s)H (s), y P es el número de polos de G(s)H (s).
Como la función de transferencia G(s)H (s) no tiene polos ni ceros en el se-
miplano derecho del plano s ni en el eje jω, P = 0 y Z=0, el criterio de Nyquist
queda reducido a N = 0. Por tanto

- Si la curva está a la derecha del -1, el sistema es estable.


- Si la curva está a la izquierda del -1, el sistema es inestable (figura 4.23).

ω=inf

G(jω)

Fig. 4.23: Criterio de Nyquist para sistemas de fase mínima

Teniendo en cuenta ahora que si la curva del sistema está a la derecha o izquier-
da del punto −1/N , la estabilidad del sistema varía, veamos la estabilidad de estos
ciclos límites.
156 4. Modelado y análisis de sistemas no-lineales

Consideremos el punto B de la figura 4.21 como punto de funcionamiento del


sistema. Si partimos de un punto que esté ligeramente a su derecha, como G( jω)
rodea a dicho punto, el punto se desplazará hacia amplitudes mayores, ya que el
sistema en esta zona es inestable y por tanto, B → ∞, mientras que si se parte de
un punto situado ligeramente a su izquierda, el punto se desplazará hacia amplitu-
des menores, B → 0 , ya que G( jω) no rodea a dicho punto, con lo que estamos
en una zona estable. El punto B corresponde a un ciclo límite estable.

En la figura 4.24 se representan los lugares −1/N (A, ω) y G( jω), que se cor-
tan en los puntos P1 y P2 .

Si el punto de funcionamiento del sistema es P3 , como G( jω) rodea al pun-


to P3 , el sistema es inestable y el punto de funcionamiento se desplazará
hacia P2 aumentando la amplitud A, puesto que en esta zona el sistema es
inestable.

Si el punto de funcionamiento del sistema es P4 , como G( jω) no rodea al


punto P4 , el punto de funcionamiento se desplazará disminuyendo la ampli-
tud, hacia A → 0.

El ciclo límite que se presenta en P1 es inestable, ya que desde P3 y P4 nunca


converge a P1 .

Si el punto de funcionamiento del sistema es P5 , como G( jω) no rodea al


punto P5 , el punto de funcionamiento se desplazará disminuyendo la ampli-
tud, hacia A → 0, por lo que alcanzará P2 .

Si el punto de funcionamiento del sistema es P6 , como G( jω) rodea al punto


P6 , el punto de funcionamiento se desplazará aumentando la amplitud hacia
A → ∞, al corresponder este punto a una zona inestable, finalizando en el
punto P2 .

Por todo ello el ciclo límite que se presenta en P2 es estable.


4.4. Análisis por función descriptiva 157

Im

G(jω)

O Re

∞ A P5
P2
P6

-1/N(A,ω)

0 A P3
P1
P4

Fig. 4.24: Sistema de la estabilidad de ciclos límites

Ejemplo 4.4.2: Consideremos el sistema de la figura 4.25. Hallar la amplitud y

r(t) x(t) 1 y(t) 10 c(t)


-1 s(s+1)(s+2)

Fig. 4.25: Sistema del ejemplo 4.4.2

frecuencia del ciclo límite.

Solución:
158 4. Modelado y análisis de sistemas no-lineales

10 ( jω)( jω − 1)( jω − 2)
G( jω) = ·
jω( jω + 1)( jω + 2) ( jω)( jω − 1)( jω − 2)
10 j (−ω2 − 20)
=
−ω(−ω2 − 1)(−ω2 − 4)
−(−10 jω2 + 20 j + 30ω)
=
ω(ω2 − 1)(ω2 + 4)
−30ω 10ω2 − 20
= + j
ω(ω2 + 1)(ω2 + 4) ω(ω2 + 1)(ω2 + 4)
El diagrama polar del sistema es el que se muestra en la figura 4.26:
La función descriptiva para una no-linealidad del tipo relé ya la habíamos ana-
lizado y era
4
N= 6 0o
πX
y, por tanto,
1 πX
− = 6 − 180o
N (X ) 4
que corresponde a la semirrecta real negativa como se muestra en la figura 4.26. Se
puede observar que existe un punto de intersección entre G( jω) y −1/N (X ), por
lo que existirá un ciclo límite.
Hay que hallar el punto de intersección de G( jω) con −1/N (X ). Para ello
igualaremos las partes real e imaginaria de ambas expresiones. Si igualamos la
parte imaginaria tendremos que la frecuencia del ciclo límite es:

Im(G( jω)) = 0 ⇒ 10ω2 − 20 = 0 ⇒ ω = 2

En ese punto, igualando ahora las partes reales de ambas expresiones



√ −30 2 30 5
Re(G( j 2)) = √ = − = − = −1.67.
2(2 + 1)(2 + 4) 18 3

La amplitud del ciclo límite es,


1 5 πX 5
− =− ⇒ = ⇒ X = 2.1
N 3 4 3

El sistema presenta un ciclo límite estable con frecuencia ω = 2 y amplitud
X = 2.1.
4.4. Análisis por función descriptiva 159

Im

G(jω) ω 0
∞ A
-1/N(A) A 0 O Re

∞ ω

Fig. 4.26: Representación de G( jω) y de −1/N (A)

Ejemplo 4.4.3: Para controlar la temperatura de un horno se construye el sistema


de control:

r(t) + x(t) 1 y(t) 0,2 1 c(t)


- -1 s 1+40s

1
1+Ts

Fig. 4.27: Sistema del ejemplo 4.4.3

Determinar la estabilidad del sistema y la amplitud y frecuencia del ciclo límite


mediante el criterio de Nyquist para T = 4seg.
Solución:
La función descriptiva es la razón entre el primer armónico de la salida y la entrada
sinusoidal.
Para el relé a una entrada x(t) = X sen(ωt) corresponde una salida que tiene
160 4. Modelado y análisis de sistemas no-lineales

4M
como primer armónico y1 (t) = π
sen(ωt) y la función descriptiva es
4M
N=
πX
Como M = 1, se tiene,
4
N=
πX
Para T = 4s, la función de transferencia de la parte lineal del sistema en bucle
abierto es
0.2
G(s) =
s(1 + 4s)(1 + 40s)
El ciclo límite se obtiene como
1
G( jω) = −
N
0.2 πX
=−
jω(1 + 4 jω)(1 + 40 jω) 4
Por tanto,
0.8 = −π X jω(1 + 4 jω)(1 + 40 jω)
= −π X ( jω − 4ω2 )(1 + 40 jω)
= −π X (−4ω2 − 40ω2 + j (ω − 160ω3 ))
= −π X (−44ω2 + j (ω − 160ω3 ))
Igualando la parte real e imaginaria
(
44π X ω2 = 0.8
ω − 160ω3 = 0

 X = 0.018
π ω2

160ω3
Por tanto
1
ω2 = = 0.00625
160
ω = 0.079
X = 0.9
Para X < 0.9 el sistema es inestable, puesto que al recorrer el lugar de G( jω)
en el sentido de las frecuencias crecientes se encuentra el lugar de puntos críticos
a la derecha.
Para X > 0.9 el sistema es estable, puesto que al recorrer al lugar de G( jω) en
el sentido de las frecuencias crecientes se encuentra el lugar de puntos críticos a la
izquierda.
Esto significa que el ciclo límite es de tipo estable, puesto que para valores
X < 0.9, la magnitud tiende a aumentar y para X < 0.9, tiende a disminuir.
4.4. Análisis por función descriptiva 161

Im

G(jω) ω 0

∞ X
-1/N(X) X 0 O Re

Ciclo
límite

∞ ω

Fig. 4.28: La intersección de G( jω) y de −1/N muestra la existencia del ciclo


límite

Ejemplo 4.4.4: Los reguladores neumáticos del tipo diafragma, a menudo pre-
sentan una no-linealidad denominada adherencia ("sticking") para valores de la
entrada próximos a cero. Dicha no-linealidad se puede ver en la figura.

-1
1 E

-1

Fig. 4.29: No-linealidad de adherencia (sticking)

Supongamos que tenemos un bucle de control de un cierto sistema formado


por los siguientes elementos: la no-linealidad descrita anteriormente, un regulador
R(s) = K (1 + 1/(sTi )) y el proceso a controlar cuya función de transferencia es
G(s) = 1/(1 + s)2 .
Determinar:

1. Forma de onda de la salida de la no-linealidad.

2. Determinar el primer armónico de u(t).


162 4. Modelado y análisis de sistemas no-lineales

x(t) + e(t) u(t) y(t)


NL R(s) G(s)
-

Fig. 4.30: Bucle de control

3. Calcular para amplitudes de e(t) iguales a 1, 2 y 10 las amplitudes y desfases


de la función descriptiva en dichos puntos. Determinar con la ayuda de éstos
si existe o no ciclo límite y para qué pulsación.

Solución:

1. La forma de onda de la salida se representa en la figura 4.31, siendo:

1 1
A sen(γ ) = 1; sen(γ ) = ; γ = arc sen
A A
2. Para calcular el primer armónico de u(t), hay que considerar

u(t) ' Y1 sen(ωt + φ1 ) = A1 sen(ωt) + B1 cos(ωt)

Z 2π  
1 1
A1 = u(t) sen(ωt)d(ωt) = A 1 − (2γ − sen(2γ )
π 0 2π
Z 2π  
1 sen2 (γ )
B1 = u(t) cos(ωt)d(ωt) = A
π 0 π

con lo que N (A) será


q
Y1 1
|N (A)| = = A21 + B12
A A
 B1
N (A) = arctan
A1
3. Si consideramos A = 1, 2 y 10, las amplitudes y los desfases de la función
descriptiva en dichos puntos serán:
(
π |N | = 0.594
Si A = 1 ⇒ γ = ⇒ 
2 N = −32.5o
4.4. Análisis por función descriptiva 163

Fig. 4.31: Forma de onda de la salida de la no-linealidad


(
π |N | = 0.973
Si A = 2 ⇒ γ = ⇒ 
4 N = −4.7o
(
|N | = 0.9997
Si A = 10 ⇒ γ = 0.1002 ⇒ 
N = 0.032o

Para determinar con la ayuda de estos valores si existe ciclo límite supo-
nemos Ti = 1s. Para este valor el sistema en cadena abierta (excluida la
no-linealidad) será
 
1 1 K
G(s)R(s) = K 1 + =
s (1 + s )2 s(1 + s)
164 4. Modelado y análisis de sistemas no-lineales

Para determinar la posible existencia de ciclos límite, debemos representar las fun-
ciones G(s)R(s) y − N1 . Los puntos de corte corresponderán a los ciclos límite.
Si N = ρα , entonces
 
1 1 1
− =− =
N ρα ρ 180o −α
Por tanto, 
1
Si A = 1 ⇒ − = 1.68147.5o
N

1
Si A = 2 ⇒ − = 1.03170.1o
N

1
Si A = 10 ⇒ − = 1.003179.99o
N

Fig. 4.32: Representación de G(s)R(s) y −1/N

Como se puede ver en la figura, para A ' 10 se produce un ciclo límite de tipo
inestable.

4.5. Análisis en el plano de fase

El análisis en el plano de fase está basado en el espacio de estados. Dado que


es un método gráfico, sólo es tratable para sistemas de dimensión dos, (ya sean
4.5. Análisis en el plano de fase 165

de primer orden con dos ecuaciones o de segundo orden y una ecuación) y en


algunos casos sencillos de sistemas de orden 3 (planos de fase 3D). La principal
ventaja del método del plano de fase es que puede observarse la respuesta de un
sistema no-lineal correspondiente a las diversas condiciones iniciales, asimismo
puede visualizarse la existencia de ciclos límites.
El objetivo es estudiar si las trayectorias temporales de los estados se dirigen al
origen, que representa el punto de estabilidad asintótica absoluta (punto de energía
mínima), ya que trabajamos con incrementos respecto al punto de equilibrio.
Consideremos la ecuación de segundo orden ẍ + 2ζ ω0 ẋ + ω02 x = 0, es decir
ẍ 2ζ
+ ẋ + x = 0
ω02 ω0

Haciendo el cambio de variables



 x1 = x

 x2 =
ω0
tenemos, 
 ẋ2 + 2ζ x2 + x1 = 0
ω0

x2 ω0 = ẋ1
En general, si partimos de las ecuaciones
(
ẋ2 = f 2 (x1 , x2 ) − 2ζ ω0 x2 − x1 ω0
ẋ1 = f 1 (x1 , x2 ) = x2 ω0

las trayectorias vendrán dadas por


d x2
ẋ2 dt f 2 (x1 , x2 ) d x2
= = = (4.5.1)
ẋ1 d x1
dt
f 1 (x1 , x2 ) d x1

La ecuación de segundo orden se puede escribir como


 
d x2 x1
= − 2ζ + (4.5.2)
d x1 x2

Para el caso no amortiguado, ζ = 0, dd xx21 = − xx12 , es decir x2 d x2 = −x1 d x1 .


Integrando la ecuación queda x12 + x22 = cte que son las ecuaciones del haz de
circunferencias con centro en el origen.
Como se puede apreciar, las trayectorias son circulares y por tanto no hay nin-
gún punto de energía mínima, puesto que el sistema no es amortiguado. En este
caso el sistema estará oscilando siempre, lo que corresponde a un ciclo límite.
166 4. Modelado y análisis de sistemas no-lineales

6
x2

0
x
1

−2

−4

−6
−6 −4 −2 0 2 4 6

Fig. 4.33: Plano de fase correspondiente a la ecuación 4.5.2 para ζ = 0 y ω0 = 1

Para el caso subamortiguado, 0 < ζ < 1, la ecuación es más difícil de integrar.


Se utiliza una técnica gráfica (método de las isoclinas) que consiste en hallar el
lugar geométrico donde las trayectorias tienen la misma pendiente. Utilizando la
ecuación 4.5.2 que representa la pendiente en el plano de fase (x1 , x2 ), se obtiene:
d x2
Si consideramos x1 = 0, d x1
= −2ζ vemos que la pendiente es constante en
el segundo eje x1 = 0.
d x2
Para x2 = 0, d x1
= −∞, pendiente infinita.
x1 d x2
Finalmente, para x2
= −2ζ , d x1
= 0, pendiente cero.

Las trayectorias son de tipo espiral y tienden hacia un punto donde la energía
es mínima (figura 4.34), siendo el sistema asintóticamente estable.

6
x2

0
x1

−2

−4

−6
−6 −4 −2 0 2 4 6

Fig. 4.34: Plano de fase correspondiente a la ecuación 4.5.2 para 0 < ζ < 1
4.5. Análisis en el plano de fase 167

En el caso sobreamortiguado, ζ > 1 se tienen las trayectorias mostradas en


la figura 4.35. Se observa también que las trayectorias tienden hacia un punto de
energía mínima.
6
x2

0
x1

−2

−4

−6
−6 −4 −2 0 2 4 6

Fig. 4.35: Plano de fase correspondiente a la ecuación 4.5.2 para ζ > 1

4.5.1. Puntos singulares


Consideremos el sistema
(
ẋ = f 1 (x, y)
(4.5.3)
ẏ = f 2 (x, y)

los puntos temporales de las variables de estado singulares o puntos de equilibrio


del sistema son aquellos que tienen las derivadas iguales a cero, en nuestro caso
ẋ = 0, ẏ = 0 (t → ∞). Los sistemas lineales pueden tener a lo sumo un punto
singular (salvo los casos degenerados). Puesto que siempre se puede hacer una
traslación del sistema de coordenadas del plano de fase, podemos considerar que
el punto singular está siempre en el origen.
Si el sistema es no-lineal, f 1 (x, y) y f 2 (x, y), se pueden linealizar las ecua-
ciones 4.5.3 en torno al origen para poder aproximar el sistema por uno lineal y
clasificar los posibles el puntos singulares. Supongamos un sistema lineal dado por
las siguientes ecuaciones
(
ẋ = ax + by
ẏ = cx + dy
    
ẋ1  =
a b  x 
ẋ2 c d y
168 4. Modelado y análisis de sistemas no-lineales

 característica del sistema linealizado es |λI − A| = 0, donde


La ecuación
a b
A= es
c d


λ − a −b

D(λ) = = λ2 − (a + d)λ + ad − bc = 0

−c λ − d

Llamando p = −(a + d), q = ad − bc, se tiene D(λ) = λ2 + pλ + q = 0.


Las raíces de ésta ecuación son los autovalores:
p
− p ± p 2 − 4q
λ1 , λ2 = . (4.5.4)
2
El tipo del punto singular del sistema lineal, depende de cómo son los autova-
lores del sistema. La solución de ẋ = Ax para un estado inicial x0 es

x(t) = P ex p( Jt) P −1 x0

donde J es la forma canónica de Jordan de A y P es una matriz no singular de


paso, tal que A = P −1 A P. Según los autovalores de A, la forma de Jordan puede
tomar una de las siguientes formas:
     
λ
 1 0 ,  λ k , y  α −β 
0 λ2 0 λ β α

donde k puede ser 0 o 1. La primera forma corresponde al caso de autovalores


reales y distintos, el segundo caso corresponde al caso de autovalores reales iguales
y la tercera forma corresponde al caso de autovalores complejos λ1,2 α ± β j. En
nuestro análisis, distinguiremos entre estos tres casos.

1. Si q < 0, los autovalores son reales y de distinto signo. El punto singular se


denomina punto de silla de montar (figura 4.36).
Cuando c 6= 0, la transformación

z 1 = −cx + (a − λ1 )y, z 2 = −cx + (a − λ2 )y,

o cuando b 6= 0, la transformación

z 1 = (d − λ1 )x − by, z 2 = (d − λ2 )x − by,

hacen que el sistema quede:


(
ż 1 = λ1 z 1
ż 2 = λ2 z 2
4.5. Análisis en el plano de fase 169

Las soluciones son


z1 = c1 eλ1 t , z2 = c2 eλ2 t (4.5.5)
eliminando t entre las dos ecuaciones, se obtiene
λ /λ1
z 2 = cz 1 2 (4.5.6)

Las trayectorias se van lejos del origen cuando t → ∞, tal como aparece en
la figura 4.36. A estas coordenadas se les denominan coordenadas modales
y las representaciones de la familia de curvas generadas por las ecuaciones
4.5.6 según c va recorriendo los números reales, forman el plano de fase
en coordenadas modales, como se puede ver en las figuras 4.35 a 4.40. Los
planos de fase en coordenadas normales se pueden considerar como trans-
formaciones no singulares de los planos de fase modales.
6 6
x2 x2

4 4

2 2

0 0
x1 x1

−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

.
jω x
Punto de silla

σ x

Fig. 4.36: Punto de silla en coordenadas modales y normales

2. Si los autovalores λ son reales y negativos los modos de respuesta son expo-
nenciales decrecientes. Las trayectorias en el plano de fases convergen hacia
el origen y el punto singular se denomina nodo estable (figura 4.37).
170 4. Modelado y análisis de sistemas no-lineales

6 6
x x2
2

4 4

2 2

0 0
x1 x1

−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

jω .
x
Nodo Estable

σ x

Fig. 4.37: Nodo estable en coordenadas modales y normales

3. Si los autovalores λ son complejos conjugados con parte real negativa, los
modos son sinusoides compuestas con términos exponenciales decrecientes
y las trayectorias en el plano de fases son espirales que se van aproximando
al origen. El punto singular se denomina foco estable (figura 4.38).
4.5. Análisis en el plano de fase 171

6 6
x x2
2

4 4

2 2

0 0
x1 x1

−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
.
x

Foco Estable
x
σ

Fig. 4.38: Foco estable en coordenadas modales y normales

4. Si los autovalores son reales y positivos, los modos son exponenciales cre-
cientes y las trayectorias son como en la figura 4.39. El punto singular se
denomina nodo inestable.
6 6
x2 x2

4 4

2 2

0 0
x1 x1

−2 −2 jω

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

Fig. 4.39: Nodo inestable en coordenadas modales y normales

5. Si los autovalores son complejos conjugados con parte real positiva, los mo-
dos son sinusoides compuestas con términos exponenciales crecientes y las
trayectorias en el plano de fases son espirales que se van alejando del origen.
El punto singular se denomina foco inestable (figura 4.40).
172 4. Modelado y análisis de sistemas no-lineales

6 6
x x
2 2

4 4

2 2

0 0
x1 x1


−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

Fig. 4.40: Foco inestable en coordenadas modales y normales

6. Si los autovalores son imaginarios puros, los modos son sinusoides y las
trayectorias en el plano de fases son circunferencias con centro en el origen.
El punto singular se denomina centro (figura 4.42).

6 6
x2 x2

4 4

2 2

0 0
x x
1 1

−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

.
jω x
Centro

σ x

Fig. 4.41: Centro en coordenadas modales y normales

7. Si uno de los autovalores es cero, el plano de fase es degenerado. La matriz A


tiene un subespacio nulo (kernel) no nulo y cualquier vector del subespacio
4.5. Análisis en el plano de fase 173

nulo será un punto de equilibrio, es decir, el sistema tiene un subespacio de


equilibrio de dimensión uno, en vez de un punto de equilibrio.

6 6
x2 x2

4 4

2 2

0 0
x1 x1

−2 −2

−4 −4

−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

Fig. 4.42: Plano de fase cuando (a) λ1 = 0, λ2 > 0 y (b) λ1 = 0, λ2 < 0

8. Si ambos autovalores son cero, la matriz A es la matriz cero y el subespacio


nulo es de dimensión dos, es decir, todos los puntos del plano son puntos
de equilibrio. En este caso las trayectorias están formadas por un punto, es
decir, cada punto es un punto de equilibrio estable y el plano de fases es un
plano en blanco.

La figura 4.43 representa los diferentes tipos de trayectorias en el plano de fase


en función de los parámetros p y q. Recuérdese que p = −(a + d) y q = ad − bc.

q
q=0
p 2-4
centro

foco foco
inestable estable
nodo nodo
inestable estable

p
punto
de silla

Fig. 4.43: Puntos singulares en el plano p − q


174 4. Modelado y análisis de sistemas no-lineales

La figura 4.44 sumariza las diferentes trayectorias en función de los autovalo-


res (posición de los polos). La figura 4.44 representa los puntos singulares de las
trayectorias en el plano p − q, según la ecuación 4.5.4.

jω .
x
Nodo Estable

σ x

.
jω x
Nodo Inestable

σ x

.
jω x
Punto de silla

σ x

.
x

Foco Estable
x
σ

jω .
x
Foco Inestable

σ x

.
jω x
Centro

σ x

Fig. 4.44: Clasificación de los tipos de puntos singulares


4.6. El Método de las isoclinas 175

4.6. El Método de las isoclinas

Tal y como ya se ha visto para el análisis de la ecuación 4.5.2, el método de


las isoclinas ayuda a dibujar las trayectorias en el plano de fase. Vamos a ilustrar
el método de forma más general, aplicando la técnica de las isoclinas a la cons-
trucción de las trayectorias en el espacio de estados de sistemas de segundo orden.
Consideremos el sistema  
−1 0 
ẋ =  x
1 −2

con la condición inicial x(0) = 0.


Los autovalores son -1 y -2 y los modos son e−t (lento) y e−2t (rápido). Los
autovectores son    
2 0
x1 =   y x2 =   .
2 1

Una técnica gráfica rápida para la construcción de la trayectorias de un sistema


de segundo orden consiste en encontrar la familia de curvas que tiene la misma
pendiente en el espacio de estados, llamada isoclinas. Después de representar las
isoclinas y pequeños trazos indicando las pendientes correspondientes a cada iso-
clina, se pueden dibujar las trayectorias como las curvas que son tangentes a esos
pequeños trazos.
En nuestro ejemplo, el lugar geométrico de los puntos con pendiente α viene
dado por la siguiente expresión

d x2 ẋ2 x1 − 2x2
α= = =
d x1 ẋ1 −x1

Despejando, se obtiene

x2 α+1
α = −1 + 2 ⇒ x2 = x1
x1 2

donde se ve que el lugar geométrico de los puntos con pendiente α es una recta de
pendiente p = α+1
2
.
Conviene representar las rectas de pendiente p y en ella los pequeños trazos de
pendiente α:
α+1
p= ⇒ α = 2 p − 1.
2
Con estas fórmulas se puede hacer una tabla que relacione isoclinas y pendientes:
176 4. Modelado y análisis de sistemas no-lineales

Fig. 4.45: Método de las isoclinas

Isoclina Pendiente de la isoclina Pendiente de las trayectorias


p α
x2 = 0 0 -1
x2 = 12 x1 1
2
0
x2 = x1 1 1
x2 = 2x1 2 3
x1 = 0 −∞ −∞

Finalmente se pueden dibujar las diversas trayectorias, comenzando desde va-


rios estados iniciales y usando las pendientes α como guía. En la figura 4.45 se
pueden apreciar diferentes rectas, en las que la pendiente de las trayectorias es la
misma. En el caso del eje de abcisas la pendiente es -1, que corresponde a −45o
y en la recta de pendiente 1 (isoclina p = 1) la pendiente de las trayectorias es 1,
que corresponde a +45o . Hay que tener en cuenta que
4.6. El Método de las isoclinas 177

1. Las trayectorias no pueden cruzarse.

2. Cualquier trayectoria que comience en un autovector, permanece en el mis-


mo autovector.

3. Cerca del origen las trayectorias son tangentes a alguno de los autovectores.

4. Para determinar la dirección de las trayectorias (su evolución temporal) hay


que poner el sistema en la forma

ẋ1 = x2
ẋ2 = f (x1 , x2 )

En este caso, si x2 > 0, ẋ1 > 0 lo que implica que x1 es creciente y la


dirección de las trayectorias es la de las agujas del reloj. Si x2 < 0, ẋ1 < 0, es
decir, x1 es decreciente y las trayectorias evolucionan igualmente en sentido
horario.

Ejemplo 4.6.1: Sea el sistema de la figura 4.46. Determinar el comportamiento

A
r(t) + e(t) m(t) K y(t)
eo e1 s(Ts+1)
-
-A

Fig. 4.46: Sistema del ejemplo 4.6.1

de la respuesta ante una entrada escalón. Se supone que las constantes del sistema
son T=1, K=4, eo = 0.1, e1 = 0.2 y A = 0.2.

Solución:
Las regiones del sistema 2 , en función del valor de ė, son:
Para ė > 0, es decir, para valores de e crecientes, nos movemos hacia la derecha
en la gráfica y tenemos que

 m = 0.2 para
 e > 0.2
m = 0 para −0.1 < e < 0.2


m = −0.2 para e < −0.1

2 Tanto en este ejemplo como el siguiente las variables de estado son e y ė, que corresponden a
las variables x1 y x2 usadas en la definición del método de las isoclinas.
178 4. Modelado y análisis de sistemas no-lineales

Para ė < 0, es decir, para valores de e decrecientes, nos movemos hacia la


izquierda en la gráfica y se observa que

 m = 0.2 para
 e > 0.1
m = 0 para −0.2 < e < 0.1


m = −0.2 para e < −0.2

Por otra parte


4
e=r−y=r− m
s(s + 1
luego
ë + ė + 4m = r̈ + ṙ
Como r̈ = ṙ = 0, ya que la entrada es un escalón unitario ë + ė + 4m = 0. Las
ecuaciones en las distintas regiones quedan:
Para ė > 0,

 ë = −ė − 0.8 para
 e > 0.2
ë = −ė para −0.1 < e < 0.2


ë = −ė + 0.8 para e < −0.1

Para ė < 0,

 ë = −ė − 0.8 para
 e > 0.1
ë = −ė para −0.2 < e < 0.1


ë = −ė + 0.8 para e < −0.2

En la región central, la salida es m = 0 y la ecuación queda:

ë = −ė

Como
d ė
ë = ė
de
es decir,
d 2e de d ė
2
=
dt dt de
la primera ecuación se puede reescribir como
d ė
ė + ė = 0
de
ė d ė + ė de = 0
ė(d ė + de) = 0.
4.6. El Método de las isoclinas 179

.
e

Fig. 4.47: Campo de direcciones de la región central

Por tanto ė = 0 ⇒ e = cte, o bien

d ė + de = 0 ⇒ ė + e = cte.

El campo de direcciones de la región central es el de la figura 4.47

Para la región de la derecha,

ë = −ė − 0.8.

Poniendo
d ė d ė de d ė
ë = = = ė
dt de dt de
se tiene
d ė
ė = −ė − 0.8.
de
Las ecuaciones de las isoclinas son las curvas que verifican

=q
de
donde q es una constante que representa la pendiente de las trayectorias en el plano
e − ė. En nuestro caso
−ė − 0.8
=q

180 4. Modelado y análisis de sistemas no-lineales

−0.8
−ė − 0.8 = q ė ⇒ (1 + q)ė = −0.8 ⇒ ė = .
1+q
Es decir, las isoclinas son las rectas horizontales

Isoclina Pendiente de la isoclina Pendiente de las trayectorias


q = −1 − 0.8/ė
ė = 0 0 ∞
ė = 0.1 0 -9
ė = 1 0 -1.8
ė = 2 0 -1.4
ė = −0.1 0 7
ė = −0.2 0 3
ė = −0.4 0 1
ė = −0.8 0 0
ė = −1 0 -0.2
El campo de direcciones y una trayectoria típica son las de la figura 4.48.
.
e

Fig. 4.48: Campo de direcciones de la zona de la derecha

La zona de la izquierda se obtiene por simetría.


4.6. El Método de las isoclinas 181

Uniendo los datos correspondientes a las tres zonas se obtiene el plano de plano
de fase, que además nos permite dibujar las trayectorias típicas, como se ve en la
figura 4.49.


0.5

0.4

0.3

0.2

0.1

0
e
−0.1

−0.2

−0.3

−0.4

−0.5

−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5

Fig. 4.49: Trayectorias típicas del ejemplo 4.6.1

Ejemplo 4.6.2: Para controlar el nivel de un fluido, contenido en un depósito de


altura h y área A se ha construido un sistema de control cuyo diagrama de bloques
es el representado en la figura 4.50:

1
r(t) + e(t) m(t) 1 y(t)
1+s
- s(1+s)
-1

Fig. 4.50: Sistema del ejemplo 4.6.2

a)Determinar las ecuaciones diferenciales que definen la dinámica del sistema,


en función de las señales de error y de la salida, con (r(t)=0).

b) Si la compensación se realiza por retraso de fase λ = −0.5, hallar:


i. Las trayectorias de fase correspondientes a y(0) = 0, ẏ(0) = 0.
ii. La trayectoria de fase, si el sistema es apartado de la condición de equilibrio, al
ser sometido a las condiciones iniciales y(0) = l, ẏ(0) = 0.
182 4. Modelado y análisis de sistemas no-lineales

Solución:
Cuando r (t) = 0, el sistema funciona como regulador del nivel h. La ecuación
diferencial del sistema es
ÿ + ẏ = m
Como e = r − y = −y, resulta

ë + ė = −m

Cuando el error va creciendo, ė > 0 el relé conmuta en e = 1.


Para ė > 0, (
Para e < 1, ë + ė = 1
Para e > 1, ë + ė = −1
Cuando el error va decreciendo, ė < 0 el relé conmuta en e = −1.
Para ė > 0, (
Para e < −1, ë + ė = 1
Para e > −1, ë + ė = −1
En la región I de la izquierda, en que la ecuación es ë + ė = 1, la ecuación de
la trayectoria de fase es
d ė ė − 1
=−
de ė
y las ecuaciones de las isoclinas son
−ė − 1 1
= q ⇒ ė = .
ė 1+q
En la región II de la derecha, en que la ecuación es ë + ė = −1, la ecuación de
la trayectoria de fase es
d ė ė + 1
=−
de ė
y las ecuaciones de las isoclinas son
−ė − 1 1
= q ⇒ ė = − .
ė 1+q
Dando valores a q se obtienen las ecuaciones de las distintas isoclinas. Por
medio de las isoclinas y las condiciones iniciales se obtiene la trayectoria de fase
pedida.
Como se puede observar en la figura 4.51, el sistema tiene un ciclo límite de
tipo estable. El sistema, por tanto, oscilará.
4.6. El Método de las isoclinas 183

2

1.5

0.5

0
e

−0.5

−1

−1.5

−2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Fig. 4.51: Trayectoria típica del sistema del ejemplo 4.6.2

Ejemplo 4.6.3: Determinar las trayectorias en el plano de fase del sistema de la


figura 4.52(con r = 0).

Amplificador
Motor
r(t) k m(t) y(t)
+ e(t) -a 10
a s(s+b)
-

Fig. 4.52: Sistema del ejemplo 4.6.3

Solución:
Para el motor se tiene que

Y (s) 1
= ⇒ Y (s)(s 2 + bs)R(s)
R(s) s(s + b)

que en el dominio del tiempo será

d 2 y(t) dy(t)
2
+b = r (t)
dt dt
184 4. Modelado y análisis de sistemas no-lineales

De la función no-lineal del amplificador se tiene que la salida u(t) del sistema
no-lineal tiene tres zonas lineales bien diferenciadas


 y(t) > +a m(t) = ka
−a ≤y(t) ≤ +a m(t) = ky(t)


y(t) < −a m(t) = −ka

Por tanto, se tienen tres zonas en el plano de fases con las siguientes ecuaciones
(recuérdese que la realimentación es negativa).

Si y(t) > +a
d 2 y(t) dy(t)
+b = ka
dt 2 dt
Si −a ≤ y(t) ≤ +a

d 2 y(t) dy(t)
2
+b = −ky(t)
dt dt

Si y(t) < −a
d 2 y(t) dy(t)
+b = −ka
dt 2 dt

Zona 1: y > +a Haciendo



 y(t) = x1 (t)
 dy(t) = x2 (t)
dt
se tiene que
 d x1 (t)

 = x2 (t)
dt
 d x2 (t) + bx (t) = −ka

2
dt
de donde 
 d x1 (t)
 = x2 (t)
dt
 d x2 (t) = −bx (t) − ka

2
dt
d x2 −bx2 − ka
= = α.
d x1 x2
Particularizando para k = a = 1 y b = 2.
4.6. El Método de las isoclinas 185

Para




0o α = 0, −bx2 − ka = 0, x2 = − ka ⇒ x2 = − 21 ,

 b


90o α = 2, x2 = 0,



45o ka
α = 1, −bx2 − ka = x2 , x2 = − b+1 ⇒ x2 = − 13 ,




 ka
−45o α = −1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = −1.

Zona 2: −a ≤ x ≤ +a
 d x1 (t)

 = x2 (t)
dt
 d x2 (t) + bx (t) − kx (t)

2 1
dt
x2 (t)
= −bx2 (t) − kx1 (t)
dt
luego

d x2 −bx2 − kx1
= = α ⇒ x2 (−b − α) = kx1 .
d x1 x2

Particularizando para k = a = 1 y b = 2.

Para




 0o , α = 0, −bx2 − kx1 = 0, x2 = − kxb1 ⇒ x2 = − 21 x1




−45o , kx1
α = −1, −bx2 − kx1 = −x2 , x2 = − b−1 ⇒ x2 = −x1



 45o , kx1
α = 1, −bx2 − kx1 = 1x2 , x2 = − b+1 ⇒ x2 = − x31




 o
90 α = −b(−2) − bx2 − kx1 = −bx2 , x1 = 0.

Zona 3: x ≤ −a 
 x1 (t)
 = x2 (t)
dt
 x2 (t) + bx (t) = ka

2
dt
x2 (t)
= −bx2 (t) + ka
dt
186 4. Modelado y análisis de sistemas no-lineales

luego

d x2 −bx2 − ka
= = α.
d x1 x2

Particularizando para k = a = 1 y b = 2.

Para




 0o , α = 0, −bx2 − ka = 0, x2 = − ka ⇒ x2 = − 21

 b


−45o , ka
α = −1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = ka
=1
b−a



 45o , ka
α = 1, −bx2 − ka = −x2 , x2 = − b−1 ⇒ x2 = 1




 o
90 α = ∞, x2 = 0.

3a
x2

2a

0
x1

−1a

−2a

−3a
−3a −2a −a 0 a 2a 3a

Fig. 4.53: Campo de direcciones del sistema del ejemplo 4.6.3

Ejemplo 4.6.4: Determinar las trayectorias en el plano de fase para el sistema de


la figura 4.54
4.6. El Método de las isoclinas 187

T
r(t) + e(t) m(t) 10 y(t)
-a
a
s(sI+B)
- -T

Fig. 4.54: Sistema del ejemplo 4.6.4

Solución:
Como el sistema tiene realimentación unitaria, e = −y.

 − T,
 si e < −a
m = 0, si − a < e < a


T, si e > a
En términos de la salida y,

 − T,
 si y > a
m = 0, si − a < y < a .


T, si y < −a
Se pueden considerar las tres zonas en las que y tiene expresiones distintas,

Zona 1: y < −a
1
y= T
s(s I + B)
En el dominio del tiempo,
I ÿ + B ẏ − T = 0
dz
I ẏ + B ẏ − T = 0
dy
Usando las variables del espacio de fases,
d ẏ −B ẏ + T B T
= =− +
dy I ẏ I I ẏ
d ẏ
Cuando ẏ = 0 ⇒ dy
=∞
d ẏ T
Cuando = 0 ⇒ −B ẏ + T = 0 ⇒ ẏ =
dy B
, que es una asíntota horizontal.
Las isoclinas tienen por ecuación
−B ẏ + T
α= ; −B ẏ + T = α I ẏ
I ẏ
T
ẏ(α I + B) = T ; z=
αI + B
Es decir, son rectas horizontales.
188 4. Modelado y análisis de sistemas no-lineales

Zona 2: −a < y < a


(s(s I + B))y = 0
En el dominio del tiempo,
I ÿ + B ẏ = 0
Usando las variables del espacio de fases,
ÿ B ẏ
ẏ = −
dy I

B
d ẏ  −
= I
dy 
o bien 0
Las trayectorias ( y también las isoclinas ) son rectas de pendiente − BI .

Zona 3: y > a
1
y= (−T )
s(s I + B)
En el dominio del tiempo,
I ÿ + B ẏ + T = 0
d ẏ
I ẏ + + B ẏ + T = 0
dy
Usando las variables del espacio de fases,
d ẏ −B ẏ − T
=
dy I ẏ
Cuando
d ẏ T
= 0 ⇒ ẏ = −
dy B
que es una asíntota horizontal.
Las isoclinas tienen como ecuación
−B ẏ − T
α= ; −B ẏ − T = α I ẏ
I ẏ
−T
ẏ(α I + B) = −T ; ẏ =
αI + B
Es decir las isoclinas son rectas horizontales.
4.6. El Método de las isoclinas 189

Fig. 4.55: Trayectorias típicas del ejemplo 4.6.4

Bibliografía

[1] J. Gómez Campomanes, Automática, Júcar, 1986.

[2] E. Umez-Eronini, Dinámica de Sistemas y Control, Thomson Learning, 2001.

[3] S. Barnett y R.G. Cameron, Introduction to Mathematical Control Theory,


Oxford University Press, 1992.

[4] T. Glad y L. Ljung, Control Theory, Taylor and Francis, 2000.

[5] JJ.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.
190 4. Modelado y análisis de sistemas no-lineales
5. ESTABILIDAD DE SISTEMAS DINÁMICOS

La primera propiedad que deben tener los sistemas de control es que sean es-
tables. Además, en éstos sistemas, al funcionar en bucle cerrado se corre el riesgo
de que sean inestables, sistemas que en bucle abierto eran estables.
El concepto más sencillo sobre estabilidad es la estabilidad de entrada-salida
que consiste en que a entradas acotadas le correspondan salidas acotadas, es decir
que la ganancia sea siempre finita.
Si consideramos el sistema de la figura 5.1, donde G(s) y H (s) son lineales o
no-lineales, el error e es e = r + H (s)y = r + H (s)G(s)e. La norma del error

r(t) + e(t) y(t)


G(s)
-

H(s)

Fig. 5.1: Bucle de realimentación

viene dada por la expresión

kuk kuk
kek = ≤
k1 − G(s)H (s)k 1 − kG(s)kkH (s)k

para cualquier norma que tomemos.


Si kG(s)kkH (s)k < 1 la ganancia del sistema es finita y por tanto el sistema
es de entrada-salida estable.

Teorema 5.0.1: Teorema de la ganancia pequeña Sea el sistema de la figura


5.1. Una condición suficiente para que el sistema sea de entrada-salida estable es
que
kG(s)kkH (s)k < 1. (5.0.1)

En el caso de que el sistema sea lineal se puede exigir una condición un poco
menos exigente, basta con que kG(s)H (s)k < 1.
192 5. Estabilidad de sistemas dinámicos

De los numerosos métodos para estudiar la estabilidad de los sistemas dinámi-


cos, se van a ver en este capítulo algunos de los más conocidos, tanto para sistemas
lineales como no lineales.

5.1. Métodos clásicos de análisis de estabilidad

En los sistemas lineales, la estabilidad del sistema está determinada por la po-
sición de los polos en bucle cerrado. Consideremos un sistema de una entrada y
una salida que tiene como función de transferencia en bucle cerrado
Qm
i=1 (s + z i )
M(s) = K Qn Q p
j=1 (s + p j ) k=1 (s + 2ζk ωk s + ωk )
2 2

La respuesta impulsional es

X
k X
p  
1
y(t) = A j e− p j t + Bk e−ζk t sin(ωk t)
j=1 k=1
ωk

Por tanto, para obtener una salida acotada ante una entrada acotada es necesario
que tanto los polos reales p j , como las partes reales de los polos complejos ζk sean
negativas.
La condición suficiente para que un sistema lineal SISO (Single Input-Single
Output)en tiempo continuo, sea estable es que todos sus polos estén situados en el
semiplano de la izquierda (parte real negativa).
El problema de este criterio es que es muy difícil de aplicar cuando hay pará-
metros. En este caso hay que aplicar otros criterios como el de Routh.
En el caso de un sistema lineal SISO en tiempo discreto, la condición suficiente
para que sea estable es que todos sus polos estén situados dentro del círculo de
radio unidad.

5.1.1. Método de Routh


Consideremos un sistema en tiempo continuo con ecuación característica

p(s) = an s n + an−1 s n−1 + an−2 s n−2 + . . . + a1 s + a0 = 0 (5.1.1)

Como condiciones previas podemos exigir que:

1. Todos los coeficientes tienen el mismo signo

2. Ningún coeficiente es nulo.


5.1. Métodos clásicos de análisis de estabilidad 193

El criterio de Routh está basado en la construcción de una tabla que se denomina


tabla de Routh y que se construye de la siguiente manera: La primera fila está
formada por los coeficientes an , an−2 , an−4 . . . y la segunda fila por los restantes
an−1 , an−3 , an−5 , . . . . Es decir

sn an an−2 an−4 . . .
s n−1 an−1 an−3 an−5 . . .
Las filas restantes se construyen como

sn an an−2 an−4 . . .
s n−1 an−1 an−3 an−5 . . .
s n−2 bn−1 bn−3 bn−5 . . .
s n−3 cn−1 cn−3 cn−5 . . . (5.1.2)

... ... ... ... ...


s1 u1 u2
s0 v1
donde la tercera fila es

an an−2
an−1 an−3 1
bn−1 = − = (an−1 an−2 − an an−3 )
an−1 an−1

an an−4
an−1 an−5 1
bn−3 = − = (an−1 an−4 − an an−5 )
an−1 an−1
Análogamente, la cuarta fila es

an−1 an−3
bn−1 bn−3 1
cn−1 = − = (bn−1 an−3 − an−1 bn−3 )
bn−1 bn−1

an−1 an−5
bn−1 bn−5 1
cn−3 = − = (bn−1 an−5 − an−1 bn−5 )
bn−1 bn−1
y así sucesivamente hasta llegar a grado cero.
194 5. Estabilidad de sistemas dinámicos

Nota 5.1.1: Al desarrollar la tabla, podemos multiplicar o dividir una fila por una
constante positiva sin que se modifique el resultado (esto es útil para simplificar la
tabla).

El criterio de Routh establece que el número de raíces en el semiplano dere-


cho coincide con el número de cambios de signo de los coeficientes de la primera
columna. Es decir, que el sistema será estable si todos los signos de la primera
columna son iguales.
Existen una serie de casos especiales entre los que debemos destacar:
Existe un cero en la primera columna. Se sustituye el valor 0 por un número
positivo muy pequeño ε y se continúa el desarrollo de la tabla. Para contabi-
lizar el número de cambios de signo de la primera columna se hace tender ε
a cero.

Existe una fila de ceros. (Polos colocados simétricamente respecto del origen
del plano complejo). Se toman los coeficientes de la fila situada encima de la
fila de ceros. Con estos coeficientes se construye la ecuación auxiliar, cuyo
grado será el que indica la potencia de s respectiva. Se sustituye la fila de
ceros por los coeficientes de la derivada y se continúa con el método.

Ejemplo 5.1.1: Caso normal. Se considera el sistema con ecuación característica

a0 s 3 + a1 s 2 + a2 s + a 4 = 0

con a0 , a1 , a2 y a3 positivos.
La tabla de Routh correspondiente es

s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s1 a1

s0 a3

Para que todos los coeficientes de la primera columna sean positivos se debe
verificar que
a1 a 2 − a 0 a 3
>0
a1
Por tanto, el sistema será estable cuando a1 a2 > a0 a3 .

Ejemplo 5.1.2: Caso con un cero en la primera columna. Consideremos el siste-


ma que tiene como ecuación característica

p(s) = s 4 + 2s 3 + 4s 2 + 8s + 5
5.1. Métodos clásicos de análisis de estabilidad 195

La tabla de Routh es
s4 1 4 5
s3 2 8
s2 0 ≈ ε 5
8ε−10
s1 ε

s0 5
donde el valor cero de la primera columna se sustituye por el número pequeño y
positivo ε.  
Cuando ε → 0, sign 8ε−10ε
= sign −10
ε
= −1. Como hay dos cambios de
signo en la primera columna, hay dos polos en el semiplano derecho y, por tanto,
el sistema es inestable.

Ejemplo 5.1.3: Caso con una fila de ceros. Consideremos un sistema con ecua-
ción característica

p(s) = s 4 + 2s 3 + 11s 2 + 18s + 18 = 0.

Solución:
Este sistema tiene sus raíces situadas de forma simétrica respecto al origen del
plano s:
±σ ± jω.
La tabla de Routh es
s4 1 11 18
s3 2 18
2
s 2 18
s1 0 → 4 0 → 0
s0 18

La ecuación auxiliar asociada a la tercera fila es A(s) = 2s 2 + 18 y su derivada


A(s)
es ds
= 4s + 0 que sustituyen a los antiguos valores de la tercera fila. Como todos
los coeficientes de la primera columna son positivos, el sistema es estable.

Ejemplo 5.1.4: Se considera el sistema de la figura 5.2


Se desea hallar la estabilidad del sistema en función de su parámetro K .
Solución:
La función de transferencia en bucle cerrado es
K
K G(s) s 2 +2s+5 (s + 3)(s 2 + 2s + 5)
G c (s) = = =
1 + K G(s)H (s) K
1 + s 2 +2s+5 1
s+3
(s + 3)(s 2 + 2s + 5) + K
196 5. Estabilidad de sistemas dinámicos

r(t) + e(t) 1 y(t)


K 2
- s +2s+5

1
s+3

Fig. 5.2: Sistema del ejemplo 5.1.4

Igualando el denominador a cero se obtiene la ecuación característica, cuyas raíces


son los polos del sistema en bucle cerrado:

p(s) = (s + 3)(s 2 + 2s + 5) + K = s 3 + 5s 2 + 11s + 15 + K = 0

Como condición previa es necesario que todos los coeficientes sean del mismo
signo:
15 + K > 0 ⇒ K > −15
La tabla de Routh es
s3 1 11
s2 5 15 + K
40−k
s1 5

s 0 15 + K
Para que el sistema sea estable se necesita que todos los coeficientes de la primera
columna sean cero:
40 − K
> 0 ⇒ 40 − K > 0 ⇒ K < 40
5
Juntando las dos condiciones, se obtiene que el sistema es estable para

−15 < K < 40.

5.1.2. Método de Jury


Para sistemas en tiempo continuo el criterio de Routh ofrece un método sencillo
de estudiar la estabilidad, sin embargo no puede aplicarse en el caso de tiempo
discreto. En este caso, existe un criterio similar al de Routh llamado criterio de
Jury.
Dado un sistema con ecuación característica

p(z) = an z n + an−1 z n−1 + . . . + a1 z + a0 = 0 (5.1.3)


5.1. Métodos clásicos de análisis de estabilidad 197

con an > 0.
La tabla de Jury es

z0 z1 z2 ... z n−k . . . z n−1 zn


a0 a1 a2 ... an−k . . . an−1 an
an an−1 an−2 . . . ak ... a1 a0
b0 b1 b2 ... bn−k . . . bn−1
bn−1 bn−2 bn−3 . . . bk − 1 . . . b0
c0 c1 c2 ... cn−k ...
cn−2 cn−3 cn−4 . . . ck−2 ...
... ... ... ... ... ...
u0 u1 u2 u3
u3 u2 u1 u0
v0 v1 v2

donde

a0 an−k b0 bn−1−k c0 cn−2−k


bk = , ck = , dk = , ...
an ak bn−1 bk cn−2 ck

Para que el polinomio 5.1.3 tenga todas sus raíces dentro del círculo unidad es
condición necesaria y suficiente que:

p(1) > 0
n
(−1) p(−1) > 0
|a0 | < an
|b0 | > |bn−1 |
(5.1.4)
|c0 | > |cn−2 |
|d0 | > |dn−3 |
... ...
|v0 | > |v2 |

Ejemplo 5.1.5: Estudiar la estabilidad del sistema que tiene como polinomio ca-
racterístico
p(z) = z 3 − 3z 2 + 2.25z − 0.5.
198 5. Estabilidad de sistemas dinámicos

Solución:
La tabla de Jury es
z0 z1 z2 z3
−0.5 2.25 −3 1
1 −3 2.25 −0.5
−0.75 1.875 −0.75
donde

−0.5 1 −0.5 −3 −0.5 2.25


−0.75 = , 1.875 = , −0.75 =
1 −0.5 1 2.25 1 −3
Las condiciones de Jury son
p(1) = −0.25 que no es mayor que cero y, por tanto, no se satisface.
(−1)3 p(−1) > 0 se satisface
|a0 | < a3 se satisface
|b0 | no es mayor que |b2 | y, por tanto, no se satisface
El sistema es inestable, puesto que no se cumplen todas las condiciones de Jury.
Si se escribe el polinomio en forma factorizada p(z) = (z −0.5)2 (z −2) se observa
que tiene una raíz fuera del círculo unidad.

5.1.3. Método de Nyquist


Criterio de estabilidad de Nyquist
El método de estabilidad de Nyquist determina, mediante un método gráfico-
analítico, la estabilidad de un sistema en lazo cerrado partiendo de la respuesta
frecuencial G( jω)H ( jω) en lazo abierto.
Además de determinar la estabilidad absoluta de un sistema, nos sirve para de-
terminar también el grado de estabilidad-inestabilidad de un sistema de regulación.
Facilita información sobre la manera de mejorar el comportamiento del sistema,
tanto en régimen permanente como transitorio.
Se basa en el Principio del argumento de Cauchy para funciones de variable
compleja.

Conceptos y principios de la teoría de variable compleja


Si escogemos un camino cerrado ρ en el plano complejo, siendo F(s) analítica
en todos los puntos del camino. Entonces la curva imagen de ρ en el plano F(s)
será también cerrada (Función analítica significa que existen en ellos la función y
sus derivadas).
5.1. Métodos clásicos de análisis de estabilidad 199

ρ
F(s)
F(ρ)

Fig. 5.3: Camino cerrado ρ y su imagen por F(s)

Teorema 5.1.1: Principio del argumento de Cauchy


Sea F(s) una función compleja de variable compleja, y ρ un camino cerrado
en el plano complejo, que no pasa por puntos singulares de F(s). Entonces F(ρ) da
un número de vueltas alrededor del origen igual a la diferencia entre el número de
ceros y polos de F(s) dentro de ρ (Fig.5.3).

Es decir, si
Z = número de ceros de F(s) dentro de ρ
P = número de polos de F(s) dentro de ρ
N = número de vueltas de F(ρ) alrededor del origen.
Entonces N = Z − P.

Introducción al método de Nyquist


El método de Nyquist nos permite estudiar la estabilidad de un sistema reali-
mentado a partir de la respuesta frecuencial en bucle abierto.
Si se considera el sistema de la figura 5.4, la función de transferencia en bucle
cerrado será:
G(s)
M(s) =
1 + G(s)H (s)
El sistema será estable si 1 + G(s)H (S) no tiene ceros en el semiplano positivo
(los ceros de 1 + G(s)H (s) son los polos de M(s)).

Q
(s + z i )
G(s)H (s) = k Q
(s + pi )
Q Q Q
(s + z i ) (s + pi ) + k (s + z i )
F(s) = 1 + G(s)H (s) = 1 + k Q = Q
(s + pi ) (s + pi )
200 5. Estabilidad de sistemas dinámicos

r(t) y(t)
G(s)
+ -
H(s)

Fig. 5.4: Sistema en bucle cerrado

Aplicando el principio del argumento de Cauchy a la función F(s), y tomando un


camino que rodee el semiplano positivo (camino de Nyquist)

F(s) = 1+G(s)H(s)
ρ
F(ρ)

Fig. 5.5: Método de Nyquist

Si se conoce P (polos positivos dentro del camino ρ, semiplano inestable) y N


(vueltas al origen de F(ρ)), se puede conocer Z (ceros positivos de F(s), es decir,
inestables) haciendo
Z=N+P
Dado que los ceros Z de F(s) son los polos en cadena cerrada del sistema,
estos definen si el sistema es estable. En el caso de que Z sea distinto de cero, el
sistema será inestable.

Método modificado.
Una forma de simplificar los cálculos en variable compleja, manteniendo el
principio del argumento, es tomar la función

F(s) = G(s)H (s),

en lugar de 1 + G(s)H (s). De este modo, la curva γ correspondiente a F(ρ),


quedará desplazada una unidad sobre el eje real, debiéndose contar ahora el número
N de vueltas en torno del punto −1, en lugar de en torno al origen (figura 5.6).
5.1. Métodos clásicos de análisis de estabilidad 201

F(s) = G(s)H(s)
ρ
F(ρ)

-1

Fig. 5.6: Método de Nyquist modificado

Ejemplo 5.1.6: Estudiar mediante el método de Nyquist la estabilidad del siste-


ma de la figura 5.7.

r(t) + e(t) s+2 y(t)


- s+1

1
s+3

Fig. 5.7: Sistema del ejemplo 5.1.6

Solución:
La función de transferencia en bucle abierto es
s+2
G(s)H (s) =
(s + 1)(s + 3)

El camino de Nyquist y la situación de los ceros y polos de bucle abierto es:

II
I
x o x
-3 -2 -1

III

Fig. 5.8: Camino de Nyquist para el ejemplo 5.1.8


202 5. Estabilidad de sistemas dinámicos

El tramo I tiene por imagen el diagrama polar. Tomando los límites para ω → 0
y ω → ∞ tenemos

jω + 2
G( jω)H ( jω) =
( jω + 1)( jω + 3)

2
lim |G( jω)| = 3
lim |G( jω)| = 0
ω→0 ω→∞

lim arg(G( jω)) = 0◦ lim arg(G( jω)) = −90◦


ω→0 ω→∞

La imagen del tramo II será el origen, ya que No polos >No ceros.


La imagen del tramo III será la simétrica del tramo I’ respecto del eje real.
Como el número de polos interiores al camino de Nyquist es P = 0 y la imagen
del camino de Nyquist no rodea al punto -1 (N = 0), entonces

Z = N + P = 0.

Es decir, no existen ceros de la ecuación característica (polos de la función de


transferencia en bucle cerrado) en el semiplano derecho y por tanto, el sistema es
estable (ver figura 5.8).

0.3

0.2

0.1

−0.1

−0.2

−0.3
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6

Fig. 5.9: Diagrama de Nyquist del ejemplo 5.1.6

Caso de sistemas con polos sobre el eje imaginario. Si en el camino de


Nyquist hay puntos singulares, es decir, si G H tiene polos en el origen o imagina-
rios puros, será preciso seleccionar un camino de Nyquist que evite estos polos.
5.1. Métodos clásicos de análisis de estabilidad 203

Sistema de bucle abierto con polo en el origen. En este caso se deberá agre-
gar un nuevo tramo (IV) que evite este polo. El tramo IV está definido por
un semicírculo de radio infinitesimal y centro en el origen:


ε→0
s = εe jθ 

θ ∈ −π2
, π2

I II
IV

III

Fig. 5.10: Camino de Nyquist para un sistema con un polo en el origen

Sistema de lazo abierto con polos imaginarios puros

Los nuevos tramos serán ahora:

I s = jω ω ∈ (0, a)
II s = a j + εe jθ ε → 0 θ ∈ ( −π
4
, π4 )
III s = jω ω ∈ (a, ∞)
IV s = Re jθ R → ∞ θ ∈ ( π4 , −π
4
)
V s = jω ω ∈ (−∞, −a)
VI s = −a j + εe jθ ε → 0 θ ∈ ( −π
4
, π4 )
VII s = jω ω ∈ (−a, 0)
204 5. Estabilidad de sistemas dinámicos

Im

III

II IV

Re
VII

VI

Fig. 5.11: Camino de Nyquist para un sistema con polos en el eje imaginario

Sistemas estables en bucle abierto (sistemas de fase mínima


En los sistemas estables en bucle abierto los polos están situados en el semi-
plano izquierdo del plano s, por tanto, P = 0. En este caso el criterio de Nyquist
queda reducido a
Z = N.
Por tanto, el sistema es estable si N = 0.
Para ver si el sistema es estable basta con dibujar la imagen del tramo I (dia-
grama polar) y comprobar que corta al eje real a la derecha de -1.
La mayoría de los sistemas reales tiene función de transferencia de bucle abier-
to G(s)H (s) con todos sus polos y ceros en el semiplano izquierdo. A este tipo de
sistemas se les denomina de fase mínima.
Entonces, puesto que G(s)H (s) no tiene polos en el semiplano derecho, se
tiene que P = 0 se cumplirá que

Z=N

y, por tanto, para que el sistema sea estable debe cumplirse que

N =0

En sistemas de fase mínima la condición de estabilidad se traduce en que el dia-


grama polar de G(s)H (s) no encierre al punto -1
5.1. Métodos clásicos de análisis de estabilidad 205

-1

Fig. 5.12: Sistema estable

-1

Fig. 5.13: Sistema inestable

Estabilidad relativa
El método de Nyquist permite el estudio de la estabilidad relativa de un sistema
de bucle cerrado a partir de la respuesta en frecuencia del sistema de bucle abierto.
Esta estabilidad relativa vendrá dada por la cercanía del diagrama polar al punto
s = −1 (ver figura 5.14). En esta figura se muestran los diagramas polares de tres
sistemas. De la observación de los mismos se puede decir que el sistema a) será
más estable que los b) y c) puesto que su diagrama polar está más alejado de −1
que los de los otros dos sistemas (suponiendo que los tres sean de fase mínima).
Para tener una idea más cuantitativa y precisa de esta estabilidad relativa, se
utilizan los conceptos de margen de ganancia y de fase que veremos a continuación.
206 5. Estabilidad de sistemas dinámicos

Im(G(jω)) Im(G(jω))

-1 Re(G(jω)) -1 Re(G(jω))

a) b)
Im(G(jω))

-1 Re(G(jω))

c)

Fig. 5.14: El sistema a) es más estable que los sistemas b) y c)

Margen de ganancia M G. Proporciona una medida de la distancia entre el


punto -1 y el diagrama polar de G( jω)H ( jω).
Es la inversa del valor del diagrama polar cuando este corta al semieje real
negativo (figura 5.15).
1
Kg =
A
La frecuencia a la cual esto se produce se denomina frecuencia de cruce de
fase, y es la frecuencia a la que la fase vale 180o .

arg(G H (ωϕ )) = π |G H (ωϕ )| = A

Para que un sistema sea estable se necesita que K g > 1.

K g > 1 ⇒ sistema estable


K g = 1 ⇒ sistema marginalmente estable
K g < 1 ⇒ sistema inestable
5.1. Métodos clásicos de análisis de estabilidad 207

Im(G(jω))

ω=ω ϕ

-1 A
Re(G(jω))

Fig. 5.15: Cálculo del margen de ganancia

Expresado en d B; el margen de ganancia M G:


1
M G = 20 log = −20 log |G(ωϕ )H (ωϕ )|
|G(ωϕ )H (ωϕ )|

Para un sistema estable se verifica |G(ωϕ )H (ωϕ )| < 1. Por tanto, M G > 0. Este
valor indica cuánto se puede incrementar la ganancia sin provocar inestabilidad.
Para un sistema inestable se verifica |G(ωϕ )H (ωϕ )| > 1. Por tanto, M G < 0,
señalando cuánto hay que reducir la ganancia para que el sistema se haga estable.
Cuando el sistema es críticamente estable, |G(ωϕ )H (ωϕ )| = 1. Por tanto,
M G = 0, no pudiendo aumentarse la ganancia de bucle abierto sin provocar ines-
tabilidad.
Si la curva del diagrama polar no corta al eje real negativo, como ocurre en los
sistemas de primer y segundo orden, M G = ∞. Teóricamente puede incrementarse
la ganancia indefinidamente, sin provocar inestabilidad (figura 5.16).
208 5. Estabilidad de sistemas dinámicos

Im(G(jω)) jω y(t)

. ..
ω=∞
K1

A
x x x
-1 Re(G(jω)) K1 σ t
K1

estable
ω=0

Im(G(jω)) jω y(t)
ω=∞ K2 .
. x x x
-1 A Re(G(jω)) K
2
K2 . σ t

estable
ω=0


.
Im(G(jω)) y(t)
K3
ω=∞

Re(G(jω)) K
. x x x
σ
A= -1 3
.
K3
t

marginalmente
ω=0
estable

Im(G(jω)) jω .
K4
y(t)
ω=∞

A -1 Re(G(jω)) K
.4
x x x
σ t

inestable
.
K4

ω=0

Fig. 5.16: Diagrama de Nyquist, lugar de las raíces y respuesta escalón en bucle
1
cerrado según aumenta la ganancia del sistema G(s) = s(s+a)(s+b) con
a, b > 0.
5.1. Métodos clásicos de análisis de estabilidad 209

Margen de fase γ . La figura 5.17 muestra los diagramas polares de dos sis-
temas cuyo margen de ganancia es el mismo. Sin embargo, el sistema a) es más
estable que el b). Para cuantificar esta circunstancia se recurre al margen de fase.
Im(G(jω)) Im(G(jω))

-1 A Re(G(jω)) -1 A Re(G(jω))

a) b)
Fig. 5.17: Los dos sistemas tienen el mismo margen de ganancia, pero el a) es más
estable que el b)

Frecuencia de cruce de ganancia (ωg ): aquella para la cual

|G( jω)H ( jω)| = 1 (0 d B)

El margen de fase es el ángulo diferencia entre la fase a ωg y 180o .

M F = γ = arg(G H (ωg )) + π
Gráficamente, γ queda reflejado en la figura 5.18.
En los sistemas estables en bucle abierto y de fase mínima, la condición de
estabilidad del sistema de bucle cerrado es que


M G|d B > 0

MF = γ > 0

Cálculo del margen de ganancia (K g ) y del margen de fase (γ ) Te-


niendo en cuenta la definición de margen de ganancia, para calcular su valor habrá
que hallar el punto de corte con el eje real y hallar el valor del margen de fase
como la constante por la que hay que multiplicar |G( jω)H ( jω)| para obtener el
valor 1, que es el módulo de |(−1, 0)|. En decibelios (que son 20log de la cantidad
correspondiente) este producto se convierte en suma. Por tanto
210 5. Estabilidad de sistemas dinámicos

Im(G(jω)) Im(G(jω))

γ(−) ωg
ω=∞ ω=∞
-1 A Re(G(jω)) A -1 Re(G(jω))
ϕ ϕ

γ(+)

ωg

ω=0
ω=0

Margen de fase positivo Margen de fase negativo

Fig. 5.18: Margen de fase

arg(G( jωϕ )H ( jωϕ )) = −180



G( jωϕ )H ( jωϕ ) + K g = 0
dB dB

dB

K g = − G( jωϕ )H ( jωϕ ) dB
1
Kg =
G( jωϕ )H ( jωϕ )

|G|

ω ω

Arg(G)

γ ω
ωϕ

Fig. 5.19: Margen de ganancia y de fase en el diagrama de Bode


5.2. Método de Liapunov 211

Para hallar el margen de fase hay que calcular el corte de la traza de |G( jω)H ( jω)|
con el círculo unidad y, a continuación, la frecuencia correspondiente a dicho punto
de corte.
G( jωg )H ( jωg ) = 1 = 0 d B
− arg(G( jωg )H ( jωg )) − γ = −180
γ = 180 − arg(G( jωg )H ( jωg ))
Los márgenes de fase y ganancia se miden sobre el sistema en bucle abierto.
El margen de ganancia/fase representa cuanto se puede aumentar la ganan-
cia/desfase del sistema en bucle abierto sin que el sistema en bucle cerrado se haga
inestable.

5.2. Método de Liapunov

En el estudio de los sistemas dinámicos, la primera propiedad que es necesario


conocer del sistema es cuando es estable, bajo qué condiciones y cerca de qué
puntos de operación.
Además, para hacer posible la descripción de un sistema hay que simplificarlo,
tomando solamente los factores más significativos. Además las ecuaciones rara-
mente se pueden resolver en forma cerrada, sino que se suelen resolver de forma
aproximada. En éste caso se plantea el siguiente problema: dada una solución,
¿cuál es la relación con las soluciones vecinas? Cuál es la diferencia cualitativa y
cuantitativa entre el sistema real y el sistema simplificado?
Es importante el estudio de si las variaciones pequeñas en las condiciones ini-
ciales hacen que cambie mucho el comportamiento del sistema. Por ejemplo, si se
perturba ligeramente la trayectoria de un avión por una ráfaga de viento, cuánto
cambiará la trayectoria final del avión.
El método de Liapunov está pensado para sistemas modelados en variables de
estado. Un punto de equilibrio o punto crítico es un punto en el que ẋ es cero en
ausencia de entradas y de perturbaciones. Por tanto, si el sistema es puesto en ese
estado permanece indefinidamente en él, y es un punto de equilibrio.
Intuitivamente hablando, un punto crítico es estable cuando las trayectorias
que nacen en puntos próximos al punto de equilibrio, permanecen uniformemente
próximas a dicho punto en los tiempos posteriores.
Si se produce una pequeña perturbación, el sistema puede volver al punto de
partida y se dice que es estable. El sistema puede alejarse de ese punto y el punto se
llama inestable. Si el sistema no se acerca ni se aleja, el punto se llama neutralmente
estable.
En el método de Liapunov se consideran sistemas del tipo

ẋ = f (x, t)
212 5. Estabilidad de sistemas dinámicos

donde x es el vector de estado de dimensión n y f es una función (lineal o no-


lineal) que depende de x y de t. Este tipo de sistemas es denominado sistemas
dinámicos no autónomos. especial interés tienen los sistemas del tipo
ẋ = f (x)
denominados sistemas autónomos o sistemas que no varían con el tiempo. Para
todos estos tipos de sistemas el punto de equilibrio se considera el origen, ya que
haciendo el cambio de variables xi0 = xi − ci se consigue trasladar el punto de
equilibrio al origen. Es decir, f (x, t) = 0, ∀t ≥ t0 . Asimismo, supondremos que
no hay otra solución constante en el entorno del origen, por tanto, es un punto de
equilibrio aislado.
Por ejemplo, si consideramos el sistema
(
ẋ = 2x
ẏ = 3y
las soluciones son x = c1 e2t , y = c2 e3t . Las trayectorias del sistema corresponden
al lugar y 2 = cx 3 , como se puede ver en la figura 5.20, y que corresponde a un
sistema con un punto de equilibrio inestable. Como los valores propios del sistema
son positivos, x e y son crecientes en módulo y, por tanto, las trayectorias se alejan
del origen.

-2

-4

-6
-6 -4 -2 0 2 4 6

Fig. 5.20: Trayectorias correspondientes al sistema y 2 = cx 3

Definición 5.2.1 (Estabilidad en el sentido de Liapunov): El punto de equili-


brio x = 0 se denomina estable si para todo ε > 0, existe δ > 0 tal que si
kx(0)k < δ entonces kx(t)k < ε para todo t>0 (figura 5.21). En caso contrario el
punto de equilibrio es inestable (figura 5.22).
5.2. Método de Liapunov 213

x2

esfera de radio δ

esfera de radio ε

x(0)

x1

Fig. 5.21: Punto de equilibrio estable

x2

esfera de radio δ
esfera de radio ε

x(0)

x1

Fig. 5.22: Punto de equilibrio inestable

Definición 5.2.2 (Estabilidad asintótica): El punto de equilibrio 0 es asintótica-


mente estable si es estable y además existe δ > 0 tal que si kx(0)k < δ, entonces
kx(t)k → 0 cuando t → ∞ (figura 5.23).

Definición 5.2.3 (Estabilidad asintótica global): Si la condición de estabilidad


asintótica se cumple para todo punto inicial, el punto de equilibrio se dice que es
global y asintóticamente estable.

Definición 5.2.4 (Función definida negativa/positiva): La función V (x) es de-


finida negativa (positiva) en un entorno Sε (0) del origen si V (x) < 0 (V (x) > 0),
∀x ∈ Sε (0) con x 6 = 0, y V (0) = 0.
La función V (x) es semidefinida negativa (positiva) en un entorno Sε (0) del
origen si V (x) ≤ 0 (V (x) ≥ 0), ∀x ∈ Sε (0) con x 6 = 0, y V (0) = 0.
214 5. Estabilidad de sistemas dinámicos

x2

esfera de radio δ
esfera de radio ε
x(0)

x1

Fig. 5.23: Punto de equilibrio asintóticamente estable

Para las formas cuadráticas, se puede aplicar el criterio de Sylvester, que dice
que la condición necesaria y suficiente para que la forma cuadrática
  
a11 a12 . . . a1n   x1 
  
a21 a22 . . . a2n   x2 

V (x) = [x1 , x2 , . . . , xn ]   
 
 . . . . . . . . . . . .  . . .
  
an1 an2 . . . ann xn
(donde la matriz es real y simétrica), sea definida positiva es que sus menores
principales sean positivos:


a11 a12 . . . a1n


a11 a12 a21 a22 . . . a2n
a11 > 0, > . . . ,
0, > 0.
a21 a22 ... ... ... . . .


an1 an2 . . . ann
V (x) es definida negativa si


a11 a12 . . . a1n


a11 a12 a21 a22 . . . a2n
a11 < 0, > 0, ..., n
(−1)
> 0.
a21 a22 ... ... ... . . .


an1 an2 . . . ann
V (x) es semidefinida positiva si la matriz es singular y todos sus menores
principales son no negativos.
5.2. Método de Liapunov 215

V (x) es semidefinida negativa si (−1)k · (det principal de orden k) ≥ 0.


Ejemplo 5.2.1: Ejemplos de funciones definidas:




 V (x) = x12 + x22 es definida positiva (∀x 6= 0, V (x) > 0, y V (0) = 0).





 x2
V (x) = x12 + 1+x2 2 es definida positiva (∀x 6= 0, V (x) > 0, y V (0) = 0).


 1


 V (x) = (x1 + x2 ) 2
es semidefinida positiva (con x1 = −x2 6= 0 → V (x) = 0).





 V (x) = −x12 − (x1 + x2 )2 es definida negativa (∀x 6= 0, V (x) < 0, y V (0) = 0).





V (x) = x1 x2 + x22 es indefinida.
Definición 5.2.5 (Función de Liapunov): Una función V (x, t) se dice que es
una función de Liapunov en Sr (0) si sus derivadas parciales primeras son con-
tinuas, V (x, t) es definida positiva y V̇ (x, t) es semidefinida negativa en Sr (0)
(figura 5.24).

80

70

60

50

40

30

20

10
10
0 5
6
4 0
2
0 −5
−2
−4
−6 −10

Fig. 5.24: Aspecto de una función de Liapunov V (x)

Un ejemplo de función de Liapunov para el sistema




ẋ = −x − 2x
1 1 2


ẋ2 = x1 − 4x2
puede ser
  
23 −7 x1 
V (x) = [x1 x2 ]  = 23x12 − 14x1 x2 + 11x22
−7 11 x2
216 5. Estabilidad de sistemas dinámicos

La función V (x) es positiva, dado que




23 −7
|23| > 0 y >0

−7 11

Si se denomina a V (x) = x T P x, entonces hay que comprobar la condición sobre


V̇ (x):

d xT P x
V̇ (x) = = ẋ T P x + x T P ẋ =
dt     
23 −7   x1  23 −7   ẋ1 
= [ẋ1 ẋ2 ]  + [x1 x2 ]  =
−7 11 x2 −7 11 ẋ2
  
23 −7   ẋ1 
= 2[x1 x2 ]  = −60[x12 + x22 ] < 0
−7 11 ẋ2

Teorema 5.2.1 (Teorema de Liapunov): Sea el sistema ẋ = f (x, t) con un


punto de equilibrio en el origen f (0, t) = 0, ∀t. Si existe una función de Lia-
punov V (x) para el sistema en un dominio que contenga al origen, entonces el
origen es estable (en el sentido de Liapunov).
Si la función de Liapunov V (x) tiene derivada V̇ (x) definida negativa en Sr (0),
entonces el origen es asintóticamente estable.
Si además V (x, t) → ∞ cuando kxk → ∞ entonces el sistema es global y
asintóticamente estable.

La comprensión intuitiva del teorema de Liapunov es como sigue: si V (x) es


definida positiva, V (x) = C representa una hipersuperficie cerrada del espacio
n-dimensional en un entorno del origen. Cuando V (x) → ∞ para kxk → ∞,
estas hipersuperficies se extienden por todo el espacio y además la hipersuperficie
V (x) = C1 está dentro de la hipersuperficie V (x) = C2 , para C1 < C2 . Si además,
V (x) tiene derivada negativa, a lo largo de la trayectoria V (x) va tomando cada
vez valores menores, hasta que finalmente V (x) = 0 y por tanto, x = 0. Lo que
significa estabilidad asintótica en el origen.
La función de Liapunov, en general, no es única, sino que es una generalización
de la idea de función de energía y por tanto se puede hacer una generalización de
diversas formas.
Si el punto singular está situado en un punto x = a distinto del origen, se puede
hacer una traslación x 0 = x − a, para tenerlo en el origen.
5.2. Método de Liapunov 217

Ejemplo 5.2.2: Estudiar la estabilidad del sistema


(
ẋ1 = x2
ẋ2 = −x1 − ax2

donde a > 0 y con las condiciones iniciales


(
x1 (0) = 0
x2 (0) = 2

Solución:

Fig. 5.25: Trayectoria de fase correspondiente al sistema 5.2.2

Elegimos como función de Liapunov V (x) = x12 + x22 . La primera condición


para ser función de Liapunov (V (x) debe ser definida positiva) se cumple puesto
que
V (x) = x12 + x22 ≥ 0
y la segunda (V̇ (x) definida negativa) también se cumple:

V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2 = 2x1 x2 + 2x2 (−x1 − ax2 ) = −2ax2 < 0, si x 6= 0

y
V̇ (x) = 0, si x = 0.
Por tanto, el sistema es estable en el origen (Fig.5.25).
Mas interés tiene este teorema cuando se aplica a sistemas no-lineales, como
se puede ver en el siguiente ejemplo.
218 5. Estabilidad de sistemas dinámicos

Ejemplo 5.2.3: Estudiar la estabilidad del sistema


(
ẋ1 = x2 − x1 (x12 + x22 )
(5.2.1)
ẋ2 = −x1 − x2 (x12 + x22 )

Solución:
Hallamos los puntos de equilibrio: ẋ = 0
( (
0 = x2 − x1 (x12 + x22 ) 0 = x22 − x1 x2 (x12 + x22 )

0 = −x1 − x2 (x12 + x22 ) 0 = +x12 + x1 x2 (x12 + x22 )

Por tanto, 0 = x12 + x22 y sustituyendo en el primer sistema 5.2.1 queda


(
x1 = 0
x2 = 0

Es decir, el único punto de equilibrio es el origen.


Consideramos la función de Liapunov V (x) = x12 + x22 , que es definida positiva
y además su derivada es definida negativa:

V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2


= 2x1 [x2 − x1 (x12 + x22 )] + 2x2 [−x1 − x2 (x12 + x22 )]
Es decir,
V̇ (x) = −2(x12 + x22 )2
es definida negativa. Por tanto, el sistema es asintóticamente estable.
Como se verifica que
q
V (x) = x12 + x22 → ∞, cuando kxk2 = x12 + x22 → ∞

el sistema es global y asintóticamente estable.

Teorema 5.2.2 (Teorema de inestabilidad): Sea el sistema ẋ = f (x, t) con un


punto de equilibrio en el origen f (0, t) = 0, ∀t. Sea V (x) una función con deri-
vadas parciales continuas, V (0) = 0, con V̇ (x) definida positiva y que V (x) tenga
valores positivos arbitrariamente cerca del origen. Entonces el origen es inestable.

Un caso particular en el que V (x) tiene valores positivos arbitrariamente cerca


del origen, es que sea definida positiva.

Ejemplo 5.2.4: Estudiar la estabilidad del sistema


(
ẋ1 = x2 + x1 (x12 + x22 )
ẋ2 = −x1 + x2 (x12 + x22 )
5.2. Método de Liapunov 219

Solución:
Si se linealiza el sistema en el origen, se obtiene

∂ ẋ1
2 ∂ ẋ1
2
= 3x1 + x2 =0 = 1 + 2x1 x2 =1
∂ x1 (0,0) ∂ x2 (0,0)

∂ ẋ2 ∂ ẋ2
= −1 + 2x1 x2 = −1 = x1 + 3x2
2
=0
∂ x1 (0,0) ∂ x2 (0,0)

es decir     
ẋ1  =
0 1 x1 
ẋ2 −1 0 x2
y por tanto (
ẋ1 = x2
ẋ2 = −x1
Si tomamos como función de Liapunov

V (x) = x12 + x22

como su derivada es
V (x) = 2x1 ẋ1 + 2x2 ẋ2
= 2x1 (x2 + x1 (x12 + x22 )) + 2x2 (−x1 + x2 (x12 + x22 ))
= 2x1 x2 + 2x14 + 2x12 x22 − 2x1 x2 + 2x12 x22 + 2x24
= 2x14 + 4x12 x22 + 2x24

se obtiene que V (x) y V̇ (x) son definidas positivas y el anterior teorema nos mues-
tra que el sistema es inestable.

5.2.1. Análisis de estabilidad de sistemas lineales continuos


Teorema 5.2.3: Sea el sistema ẋ = Ax. Es condición necesaria y suficiente para
que el sistema sea asintótica y globalmente estable que dada una matriz Q simétri-
ca y definida positiva, exista una matriz P simétrica y definida positiva que cumpla:

AT P + P A = − Q (5.2.2)

En efecto, si se considera como función de Liapunov V (x) = x T P x, con P


matriz simétrica definida positiva, la derivada es

V̇ (x) = ẋ T P x + x T P ẋ = ( Ax)T P x + x T P Ax
= x T AT P x + x T P Ax = x T ( AT P + P A)x.
220 5. Estabilidad de sistemas dinámicos

Como V̇ (x) ha de ser definida negativa, se necesita que

AT P + P A = − Q

con Q matriz simétrica definida positiva.

Ejemplo 5.2.5: Estudiar la estabilidad del sistema


   
a 0 1
ẋ =  x +   u. (5.2.3)
0 b 1

Solución:
Según el teorema anterior, el sistema ẋ = Ax es asintótica y globalmente
estable si y sólo si para todas las matrices Q hermíticas y definidas positivas, existe
una matriz P hermítica definida positiva tal que A0 P + P A = − Q.
Tomando  
1 0
Q= 
0 1
tenemos
       
a 0  p11 p12 
+
p11 p12  a 0
= −
1 0
0 b p12 p22 p12 p22 0 b 0 1

Realizando las operaciones indicadas:


   
 2ap11 ap12 + bp12  1 0
= −
ap12 + bp12 2bp22 0 1

se tiene
−1
p11 =
2a
p12 =0
−1
p22 =
2b
Por tanto,  
−1
 2a 0
P=
−1
0 2b

P tiene que ser definida positiva, por tanto, hay que determinar para qué valores
de a, b, y c, los menores principales son mayores que cero.
5.2. Método de Liapunov 221

1
El primer menor principal es − 2a . si imponemos que sea positivo se tiene,

1
− >0 ⇒a<0
2a
El segundo menor principal es el determinante de la matriz P

1
| P| =
4ab
Imponiendo la condición de que sea positivo,

1
>0
4ab
y teniendo en cuenta que a > 0 se deduce que b < 0. Es decir, que la condición
para que el sistema expresado por la ecuación 5.2.3 sea estable es que a y b sean
negativas.

El criterio de Liapunov también se puede utilizar para sistemas no-lineales. En


este caso hay que comprobar la estabilidad tanto de la parte lineal (si existiera)
como de la no-lineal.

Ejemplo 5.2.6: Estudiar la estabilidad del sistema

ÿ + (2 + e−t ) ẏ + y = 0 (5.2.4)

Solución:
El sistema puede expresarse en variables de estado descomponiendo la parte lineal
y la no-lineal, como:
    
0 1  x1   0 
ẋ =  + = Ax + B
−1 −2 x2 −e−t x2

y = (1 0)x
Primero comprobamos la estabilidad de la parte lineal ẋ = Ax

Q=I

AT P + P A = − Q
       
0 −1  p11 p12   p11 p12   0 −1 −1 0 
+ =
−1 −2 p12 p22 p12 p22 −1 −2 0 −1
222 5. Estabilidad de sistemas dinámicos

 
1 3 1
P=
3 1 1

que es definida positiva y por tanto, el sistema lineal es estable.


Seguidamente comprobamos si con la matriz P calculada, las partes lineal y
no-lineal son estables. Para ello verificamos la función de Liapunov V (x):
  
1 3 1  x1  = 1 (x1 + x2 )2 + 1 2x12 > 0
V (x) = x T P x = (x1 x2 ) 
3 1 1 x 2 2
2

V̇ x = ẋ T P x + x T P ẋ = 2x T P ẋ = 2x T P( AX + B) =
= 2x T P Ax + 2x T P B = −x12 − x22 − (x1 + x2 )e−t x2 =
  
e−t
1  x1  < 0
= −(x1 x2 )  2
−t
e
2
1 + e−t x2
debido a que los menores principales de esta matriz son siempre mayores que cero

1>0
e−t
1 + e−t − >0
4
por tanto, el sistema es asintóticamente estable.

Ejemplo 5.2.7: Estudiar la estabilidad del sistema


 dx


1
= 2x1 + 2
dt

 d x2 = x − x .
1 2
dt
Solución:
d x1 d x2
En el punto de equilibrio dt
= 0, = 0, es decir,
dt
( (
0 = 2x1e + 2 x1e = −1

0 = x1e − x2e x2e = −1

Haciendo un cambio de variable para que este punto quede situado en el origen
(
x10 = x1 + 1
x20 = x2 + 1

y sustituyendo nos queda que


5.2. Método de Liapunov 223

    
0
ẋ1  2 0  x10 
=
ẋ20 1 −1 x20
Este es un sistema lineal y en tiempo continuo, por lo que la función de Liapunov
que tomamos es
V (x) = x T P x
donde P debe ser definida positiva para que el sistema sea asintóticamente estable.
Si hacemos
AT P + P A = − Q = −I
para determinar P, obtenemos que
       
2 1  1p p 2
+
2 1   p1 p2 
= −1 0
0 −1 p2 p3 1 −1 p2 p3 0 −1

y despejando queda  
0 − 12 
P =
− 12 1
2

que no es definida positiva, dado que p11 = 0, luego el punto de equilibrio no será
asintóticamente estable.

5.2.2. Análisis de estabilidad de sistemas lineales discretos


Teorema 5.2.4: Sea el sistema x(k + 1) = Gx(k). Es condición necesaria y
suficiente para que el sistema sea asintótica y globalmente estable que dada una
matriz Q simétrica y definida positiva, exista una matriz P simétrica y definida
positiva que cumpla :
GT P G − P = − Q (5.2.5)

Si se considera como función de Liapunov V (x) = x T P x con P matriz simé-


trica definida positiva,

1V (x(k)) = V (x(k + 1)) − V (x(k)) = x T (k + 1) P x(k + 1) − x T (k) P x(k)


= (Gx(k))T P Gx(k) − x T (k) P x(k) = x T (k)G T P Gx(k) − x T (k) P x(k)
= x T (G T P G − P)x.

Por tanto, se requiere que


GT P G − P = − Q
con Q matriz simétrica definida positiva.
224 5. Estabilidad de sistemas dinámicos

Ejemplo 5.2.8: Estudiar la estabilidad del sistema


x(k) = ax(k − 1) + 0.5x(k − 2) + 5u(k − 1).
Solución:
El sistema también se puede escribir como
x(k + 2) = ax(k + 1) + 0.5x(k) + 5u(k + 1)
Haciendo x1 (k) = x(k), x2 (k) = x(k + 1), se tiene
(
x1 (k + 1) = x2 (k)
x2 (k + 1) = ax2 (k) + 0.5x1 (k) + 5u(k + 1)
y en forma matricial,
      
x1 (k + 1) =
0 1 x1 (k)
+ 0
u(k + 1)
x2 (k + 1) 0.5 a x2 (k) 5
Tomando el sistema independiente de la entrada
 
0 1
x(k + 1) =  x(k).
0.5 a
La condición necesaria y suficiente para que el sistema sea asintóticamente
estable en el origen es que para cualquier matriz hermítica y definida positiva Q,
exista una matriz P definida positiva hermítica tal que G T P G − P = − Q.
Tomando  
1 0
Q= 
0 1
se tiene,
       
0 0.5  p1 p2   0 1 −  p1 p2  = −1 0 
1 a p2 p3 0.5 a p2 p3 0 −1
   
 0.25 p3 − p1 −0.5 p2 + 0.5ap3  −1 0 
=
−0.5 p2 + 0.5ap3 p1 + 2ap2 + (a 2 − 1) p3 0 −1
Escribiendo esta expresión matricial como sistema,

 0.25 p3 − p1 = −1

− 0.5 p2 + 0.5ap3 = 0


p1 + 2ap2 + (a 2 − 1) p3 = −1
5.3. Método de Popov 225


 p1 = 1 + 0.25 p3

p2 = ap3


1 + 0.25 p3 + 2a 2 p3 + (a 2 − 1) p3 = −1
La solución de éste sistema es:


 0.5 3a 2 − 1.25

 p 1 = 1 − =

 3a 2 − 0.75 3a 2 − 0.75

2a
p2 = − 2

 3a − 0.75



 2
 p3 = −
3a 2 − 0.75
Para que P sea definida positiva se necesita
 2
3a 2 − 1.25 −2 2a
| p1 | > 0 y · − >0 ⇒ a < 0.5
3a 2 − 0.75 3a 2 − 0.75 3a 2 − 0.75
Por tanto, si a < 0.5 se verifican ambas condiciones y P es definida positiva.
Según el teorema de Liapunov y teniendo en cuenta que V (x) = x T P x es
definida positiva y V̇ (x) = x T (G T P G − P)x es definida negativa, el sistema es
asintóticamente estable en el origen, para a < 0.5. Para a > 0.5 el sistema es
inestable.

5.3. Método de Popov

Bajo el nombre de sistemas no-lineales aparecen incluidos sistemas tan dis-


pares y con tan pocas propiedades en común que es realmente difícil encontrar
criterios de estabilidad únicos. El criterio de Liapunov es aplicable a sistemas no-
lineales, pero su verificación, en general, no es nada fácil. Puede ocurrir que no
se encuentre una función de Liapunov, pero esto no indica que dicha función no
exista. Por eso es conveniente restringir el campo de aplicación y centrarse en una
estructura determinada. En esta sección vamos a estudiar un tipo de sistemas no-
lineales para los que existen criterios únicos como el que proporciona el criterio de
Popov.
Vamos a considerar los sistemas que tienen una parte lineal que no varía con
el tiempo con función de transferencia G(s) y una parte no-lineal f (y) en la reali-
mentación, que puede incluso variar en el tiempo (figura 5.26). Este tipo de modelo
tiene la ventaja de que corresponde a muchos sistemas de control de los utilizados
en aplicaciones prácticas.
En variables de estado se pueden escribir como
(
ẋ = Ax + B f ( y)
y = Cx
226 5. Estabilidad de sistemas dinámicos

u(t)=0 + e(t) y(t)


-
G(s)

f(y)

Fig. 5.26: Sistema con realimentación no-lineal

donde G(s) = C(s I − A)−1 B, y f (y) es la parte no-lineal.

Definición 5.3.1: Una función continua f (y) pertenece al sector [K 1 , K 2 ], donde


K 1 , K 2 ≥ 0, si se verifica

f (y)
K1 ≤ ≤ K2 para y 6= 0
y

f(y)
f(y)
pendiente K2
pendiente K1

Fig. 5.27: Condición del sector

El primero en estudiar este tipo de sistemas fue el matemático ruso Aizerman,


que en 1949 hizo la siguiente conjetura:

Conjetura de Aizerman Consideremos el sistema asociado de la figura:

u(t)=0 + e(t) y(t)


G(s)
-

ky
k

Fig. 5.28: Sistema asociado de Aizerman


5.3. Método de Popov 227

Si ∀k ∈ [K 1 , K 2 ] se verifica que el sistema asociado (con matriz A − BCk)


es estable y la función f (y) pertenece al sector [K 1 , K 2 ], entonces el sistema no-
lineal es global y asintóticamente estable.
La conjetura de Aizerman es muy interesante, porque, si fuera cierta, nos per-
mitiría estudiar la estabilidad de los sistemas no lineales en base a las propiedades
de los sistemas lineales. Desgraciadamente esta conjetura es falsa como muestran
varios contraejemplos que aquí no citaremos, pero ha servido de punto de partida
para otros criterios que si son ciertos. El más importante es el criterio de Popov que
recuerda al criterio de Nyquist.

Teorema 5.3.1 (Teorema de Popov): Dado el sistema de la figura 5.26, ẋ =


Ax + b f (C x), el origen es asintótica y globalmente estable si

El sistema lineal es estable

La función no-lineal satisface


f (y)
0< < K m , ∀y 6= 0
y

Existe una constante α que verifica


 
1
Re (1 + α jω)G( jω) + > ε, ∀ω ≥ 0, con ε > 0 (5.3.1)
K

Gráficamente se puede interpretar el criterio de Popov de la siguiente forma:

G( jω) = G 1 ( jω) + j G 2 ( jω)

De esta forma, la condición de Popov 5.3.1 se reescribe como:

(1+ jαω)(G 1 ( jω)+ j G 2 ( jω)) = G 1 ( jω)+ jαωG 1 ( jω)−αωG 2 ( jω)+ j G 2 ( jω)


 
Re (1 + α jω)G( jω) = G 1 ( jω) − αωG 2 ( jω)

  1
Re (1 + α jω)G( jω) + ≥ε
K
1
G 1 ( jω) − αωG 2 ( jω) + ≥ε (5.3.2)
K
Fabricamos una función auxiliar, denominada W ( jω), con la misma parte real que
G( jω) y con la parte imaginaria igual a ωIm(G( jω)):

W ( jω) = G 1 ( jω) + jωG 2 ( jω)


228 5. Estabilidad de sistemas dinámicos

Si hacemos
W ( jω) = x + j y
la condición 5.3.2 se transforma en:
1
x − αy + ≥ε
k
Lo que significa que para que el sistema sea estable la función W ( jω) debe estar a
la derecha de la línea definida por (figura 5.29):

1
x − αy + =0
K
1
G 1 ( jω) − αG 2 ( jω) + =0
K

Im
Pendiente 1/α

W(j ω)

-1/k Re

Fig. 5.29: Interpretación geométrica del criterio de Popov

Ejemplo 5.3.1: Estudiar la estabilidad del sistema formado por una parte lineal

s+3
G(s) =
s2 + 7s + 10
y por una parte no lineal como la de la figura 5.30.
Solución:
Como se puede comprobar G(s) es estable. Como

jω + 3
G 1 ( jω) =
( jω)2 + jω7 + 10

y las parte real e imaginaria son

4ω2 + 30
G1 =
ω4 + 29ω2 + 10
5.3. Método de Popov 229

Im
Κ=∞

Κ=0
Re

Fig. 5.30: No-linealidad del ejemplo 5.3.1

−ω(ω2 + 11)
G1 =
ω4 + 29ω2 + 10
Sustituimos en 5.3.2
4ω2 + 30 αω2 (ω2 + 11) 1
+ + ≥ε
ω4 + 29ω2 + 10 ω4 + 29ω2 + 10 K
1
(4ω2 + 30) + (αω2 (ω2 + 11)) + ( − ε)(ω4 + 29ω2 + 10) > 0
k
Para todo ω > 0 y para todo α > 0 y 0 < k < ∞, se deduce que el sistema es
estable.
Por otra parte
 
1
Re (1 + α jω)G( jω) + >0
K
se tiene
1
Re(G( jω) > − + αωIm(G( jω)), con α > 0.
K
Esto implica que la trayectoria de Nyquist para G( jω) está siempre a la derecha
de la línea de Popov definida por:
1
Re(G( jω) = − + αωIm(G( jω))
K
Por tanto, tal y como se puede apreciar en la figura 5.31, el sistema es estable en
[0,K].
230 5. Estabilidad de sistemas dinámicos

Im(G(jω))

ω=∞ ω=0
-1/K Re(G(jω))

arctg(1/(αω)
G(jω)

Fig. 5.31: Sistema estable en [0, K ]

5.4. El criterio del círculo

Es una extensión del criterio de Nyquist para sistemas no-lineales. Considere-


mos el sistema de la figura 5.32, donde f(y) es una función continua que satisface
la condición del sector
f (y)
f (0) = 0, K1 ≤ ≤ K 2 , ∀y 6= 0 (5.4.1)
y
donde K 1 y K 2 son positivos.

r(t) + e(t) y(t)


-
G(s)

f(y)

Fig. 5.32: Sistema con realimentación no-lineal

Esto significa que la gráfica de f (y) está comprendida en una región cónica,
como la de la figura 5.27.
Considerando K como la media entre K 1 y K 2
K1 + K2
K =
2
como
K 1 y ≤ f (y) ≤ K 2 y
se tiene que
(K 1 − K )y ≤ f (y) − K y ≤ (K 2 − K )y
5.4. El criterio del círculo 231

denominando f˜(y) = f (y) − K y, nos queda lo siguiente


   
K1 + K2 ˜ K1 + K2
K1 − y ≤ f (y) ≤ K 2 − y
2 2
K1 − K2 K2 − K1
y ≤ f˜(y) ≤ y
2 2
es decir,
f˜(y) K − K
2 1

y 2
K 2 −K 1
si llamamos K r = 2
, se tiene

f˜(y)

≤ Kr
y

La no-linealidad se descompone en una parte lineal K y en otra no-lineal pero


centrada en el origen f˜(y), como se puede ver en la figura 5.33.
Es decir, el sistema se puede transformar haciendo

e = r − f (y) = r − (K r y + f˜(y)) = r − K r y − f˜(y)

El sistema es entonces equivalente al de la figura 5.34


Si se modifica el sistema hallando el bloque equivalente al bucle de la línea de
puntos, se obtiene el sistema que se puede ver en la figura 5.35 con
G
G̃ =
1 + KG
Aplicando el teorema de la ganancia pequeña 5.0.1, la condición suficiente para
que el sistema sea de entrada/salida estable es que

||G̃(s)|| ¦ || f˜(y)|| < 1

por tanto, pasando a expresiones en frecuencia,

K r |G̃( jω)| < 1

es decir
1
| > Kr
G̃( jω)|
Sustituyendo G̃ por su valor, se tiene

1

G( jω) + K > K r
232 5. Estabilidad de sistemas dinámicos

f(y)
f(y)
pendiente K2
pendiente K1

K2-K1
f(y) K=
2
f(y)
pendiente K2
pendiente K1
~
f(y)

f(y) K

~
f(y) y

Fig. 5.33: Descomposición de la función f(y) como suma de K y y de f˜(y)


5.4. El criterio del círculo 233

~r(t) + + y(t)
-
G(s)
-

~
f(y)

Fig. 5.34: Sistema modificado con realimentación no-lineal

~
r(t) + e(t) ~ y(t)
-
G(s)

~
f(y)

Fig. 5.35: Sistema modificado y simplificado con realimentación no-lineal

Im

Kr
-K Re

1
G(jω)

Fig. 5.36: Criterio del círculo para 1/G( jω)

Esta condición para la estabilidad para 1/G( jω) se puede ver en la figura 5.36.
Teniendo en cuenta los cortes del círculo con el eje real, se tiene

1 1
−K + K r ⇒ =−
−K + K r K1

1 1
−K − K r ⇒ =−
−K − K r K2
234 5. Estabilidad de sistemas dinámicos

y por tanto, se obtiene la condición correspondiente para G( jω) se puede ver en la


figura 5.37.

Im

1 1
K1 K2 Re

G(jω)

Fig. 5.37: Criterio del círculo para G( jω)

Teorema 5.4.1: Sea G una función de transferencia sin polos en el semiplano


derecho. Si la curva de Nyquist G( jω) con 0 ≤ ω ≤ ∞ no corta ni rodea al
círculo que corta al eje en −1/K 1 y−1/K 2 (figura 5.37), el sistema es en el origen
asintótica y globalmente estable.
1
Ejemplo 5.4.1: Consideremos el sistema G(s) = s(s+1)(s+2) . El diagrama de Ny-
quist se muestra en la figura 5.38. La recta vertical con parte real -0.8 está situada
completamente a la izquierda de la curva de Nyquist. Esta recta puede ser conside-
rada como un círculo de radio infinito que corta al eje en −∞ y en -0.8, por tanto,
K 1 = 0 y K 2 = 1/0.8 = 1.25. Este hecho garantiza que si la no-linealidad es una
zona muerta o una saturación con una pendiente en su parte lineal que no supere
1.25 entonces el sistema será estable.
5.4. El criterio del círculo 235

Fig. 5.38: Curva de Nyquist para G y algunos círculos (de radio 0.3 y ∞) que
satisfacen el criterio del círculo

Bibliografía

[1] E. A. Puente, Regulación Automática Sección de Publicaciones de la ET-


SIIM, 1993.

[2] E. Umez-Eronini, Dinámica de Sistemas y Control, Thomson Learning, 2001.

[3] S. Barnett y R.G. Cameron, Introduction to Mathematical Control Theory,


Oxford University Press, 1992.

[4] T. Glad y L. Ljung, Control Theory, Taylor and Francis, 2000.

[5] JJ.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.
236 5. Estabilidad de sistemas dinámicos
6. IDENTIFICACIÓN DE SISTEMAS
DINÁMICOS

6.1. Introducción

Un problema que se le plantea al diseñador de un sistema de control para un


cierto sistema es como obtener un modelo del sistema dinámico que describa ade-
cuadamente su comportamiento. La obtención de un modelo matemático para un
sistema dinámico puede enfocarse de dos formas distintas: utilizando métodos teó-
ricos o bien utilizando métodos experimentales.
Una primera posibilidad consiste en utilizar el conocimiento disponible de las
leyes de la Física, Química, Economía u otras ciencias para formular un conjunto
de ecuaciones que permitan describir la respuesta del sistema que se desea con-
trolar, como por ejemplo: motores eléctricos, circuitos, elementos mecánicos, hi-
draúlicos, reacciones químicas, etc. Este enfoque se denomina por lo general mo-
delado de sistemas. Sin embargo, existen sistemas que por su complejidad, mal
conocimiento de los mismos, dificultad para su estudio, u otras razones no permi-
ten construir un modelo matemático del sistema por este método.
En este caso es necesario acudir a la experimentación sobre el propio sistema
que se quiere modelar, con el fin de extraer a partir de los datos experimentales
obtenidos del sistema un modelo matemático del mismo. Este método se suele
denominar identificación de sistemas.
La identificación de sistemas, por tanto, estudia el problema de ¿cómo obte-
ner los modelos matemáticos de aquellos sistemas dinámicos que nos resultan de
interés a partir de la información obtenida de la observación de los mismos?. La
construcción de un modelo a partir de unos datos observados experimentalmente
requiere tres cosas:

1. Los datos. Normalmente el sistema es sometido a unos ciertos experimentos


específicamente concebidos para realizar la identificación, donde se miden
una serie de datos de entrada y de salida en el sistema. El usuario debe de-
terminar que señales debe medir, cuando las debe medir e incluso elegir las
señales de entrada más adecuadas. Todo esto constituye el diseño del expe-
rimento.
238 6. Identificación de sistemas dinámicos

2. Un conjunto de modelos. El conjunto de modelos se obtiene especificando


entre los diferentes tipos de estructuras de modelos, cuál de ellos vamos a uti-
lizar para ajustar los datos. Este proceso es el más difícil y el más importante
de todo el proceso de identificación. Existen dos situaciones básicas: una en
la que no se dispone de relaciones físicas que expresen un cierto conocimien-
to del sistema, en cuyo caso se utiliza algún modelo estándar directamente
y se pretende determinar el modelo más adecuado y los parámetros del mis-
mo (caja negra) y otra en la que se tiene un cierto conocimiento a priori,
normalmente el modelo, y sólo se desea estimar los parámetros (caja gris).
3. Un criterio para determinar cual de los modelos que se evalúa es el mejor
de acuerdo con los datos disponibles. La evaluación de la calidad de un mo-
delo se basa típicamente en como se comporta el modelo cuando se intenta
reproducir los datos medidos.

Una vez que se han establecido los tres aspectos anteriores, se habrá llegado
a un modelo particular: a aquel que mejor describe los datos de acuerdo con el
criterio que se ha elegido. Una vez alcanzado este punto, es necesario comprobar
si este modelo es suficientemente bueno, es decir, si resulta válido para el propósito
para el que se desea el modelo. Estas comprobaciones se denominan validación del
modelo.

6.2. Familias de modelos utilizadas en identificación

Los modelos matemáticos de sistemas que se han visto en capítulos anteriores


pueden agruparse en dos grandes categorías: paramétricos y no paramétricos.

Modelos paramétricos.
Son aquellos en los que el modelo matemático que se utiliza para descri-
bir el funcionamiento del sistema está completamente caracterizado por un
conjunto finito de coeficientes (parámetros).
Entre estos tenemos: las funciones de transferencia y los modelos de estado.
Modelos no-paramétricos.
Son aquellos métodos de caracterización de un sistema en los que para des-
cribir el funcionamiento del mismo se utiliza una o varias curvas de respues-
ta. Estas curvas de respuesta no tienen un número finito de coeficientes para
describirlas por lo que se denominan modelos no-paramétricos.
Entre estos métodos tenemos los métodos de respuesta frecuenciales: Bode,
Nyquist y Nichols que se basan en las curvas de respuesta en amplitud y
fase del sistema a diferentes frecuencias, y también la curva de respuesta
impulsional del sistema.
6.2. Familias de modelos utilizadas en identificación 239

6.2.1. Modelos no-paramétricos


Entre los posibles modelos no-paramétricos que podemos utilizar para carac-
terizar la dinámica de un cierto sistema, vamos a considerar dos básicamente: la
respuesta impulsional y la respuesta frecuencial.

Respuesta temporal
La salida de un sistema en tiempo discreto ante una cierta secuencia de entrada
u(k), k = 1, . . . , ∞ venía dada por la expresión

X
y(k) = g(i)u(k − i) k = 0, 1, 2, . . .
i=0

y definíamos la respuesta impulsional del sistema como la respuesta a una señal


de tipo impulso de Dirac. Es decir, la respuesta impulsional de un sistema será la
secuencia g(k), k = 0, . . . , ∞.
Los sistemas cuya respuesta impulsional tiene un número finito de coeficientes
distintos de cero, se denominan sistemas con respuesta impulsional finita (FIR-
finite impulse response).

Respuesta frecuencial
Otra forma tradicional de caracterizar experimentalmente la respuesta de un
sistema es por medio de la respuesta frecuencial, es decir por las curvas de res-
puesta de amplitud y fase.
La expresión teórica de la respuesta en frecuencia de un sistema era:

Y ( jω)
G( jω) =
U ( jω)

que para cada valor de ω nos da un módulo |G| y un argumento 6 G.

6.2.2. Modelos paramétricos


Dentro de los modelos paramétricos los más frecuentemente empleados son las
funciones de transferencia y los modelos de estado.

Modelos de función de transferencia


En identificación es usual utilizar las expresiones de la función de transferencia
en tiempo discreto, dado que el proceso de identificación se realiza por parte de un
computador que es el que obtiene y analiza los datos obtenidos.
240 6. Identificación de sistemas dinámicos

Un sistema discreto cuya ecuación lineal en diferencias es


X
p
X
q
y(k) = − ai y(k − i) + bi u(k − i)
i=1 i=0

donde y(k) es la secuencia de salida y u(k) es la secuencia de entrada al sistema.


Este sistema podemos escribirlo también como:

X
y(k) = g(i)u(k − i) k = 0, 1, 2, . . .
i=0

y recordemos que
y(k) 1 + b1 z −1 + . . . + bm z −q
G(q) = =
u(k) 1 + a1 z −1 + . . . + an z − p
puede formularse como

X
y(k) = g( j)u(k − j)
j=1

X
= g( j)[u(k)q − j ]
j=1
X∞
=[ g( j)q − j ]u(k)
j=1
= G(q)u(k)
donde

X
G(q) = g(k)q −k
k=1
Si suponemos que el sistema está sometido a ruido, para el ruido puede hacerse
lo mismo obteniendo unas expresiones equivalentes
v(k) = H (q)e(k)
con

X
H (q) = h(k)q −k
k=1
con lo que un modelo lineal con perturbación aditiva podrá expresarse de la si-
guiente forma
y(k) = G(q)u(k) + H (q)e(k) (6.2.1)
Dependiendo de la forma que adoptan las funciones G(q) y H (q) podemos
hablar de cuatro tipos de modelos básicos: ARX, ARMAX, OE y Box-Jenkins.
6.2. Familias de modelos utilizadas en identificación 241

Modelo ARX Es el modelo más simple, se obtiene como

y(k) + a1 y(k − 1) + . . . + ana y(k − n a ) =


b1 u(k − 1) + . . . + bn b u(k − n b ) + e(k)

donde e(k), es un ruido blanco, que entra como un error directo en la ecuación en
diferencias, por lo que a este modelo de estructura se denomina también de error
en ecuación. Denominaremos θ al vector de parámetros ajustables del modelo, que
en este caso son los siguientes:

θ = [a1 , . . . , ana , b1 , . . . , bn b ]T

si denominamos:

A(q) = 1 + a1 q −1 + . . . + ana q −na (6.2.2)


−1 −n b
B(q) = b1 q + . . . + bn b q (6.2.3)

tenemos que

B(q)
G(q) = (6.2.4)
A(q)
1
H (q) = (6.2.5)
A(q)
Este modelo, mostrado en la figura 6.1, se denomina ARX, donde AR se refiere
a la parte autorregresiva de A(q)y(k) y X a la entrada B(q)u(k). En el caso especial
de que n a = 0, y(k) es modelado como un sistema con respuesta impulsional finita
(FIR). Modelos que son muy frecuentemente utilizados en procesado de señal.
Dado que por su estructura, muy simple, es el modelo más fácil de estimar, es
recomendable que se empiece por él.

Modelo ARMAX La mayor desventaja del modelo anterior estriba en la ausen-


cia de libertad para describir las propiedades del término de perturbaciones. Es
posible añadirle algo de flexibilidad al modelo anterior si consideramos que la per-
turbación es un ruido blanco de media móvil. Con esta consideración se obtiene un
modelo con una estructura del siguiente tipo,

y(k) + a1 y(k − 1) + . . . + ana y(k − n a ) =


b1 u(k − 1) + . . . + bn b u(k − n b ) +
e(k) + c1 e(k − 1) + . . . + cn c e(k − n c ) (6.2.6)

con
C(q) = 1 + c1 q −1 + . . . + cn c q −n c
242 6. Identificación de sistemas dinámicos

e(k)

1
B(z)

u(k) A(z) + + y(k)

B(z)

Fig. 6.1: Estructura de modelo ARX

y la ecuación puede reescribirse como

A(q)y(k) = B(q)u(k) + C(q)e(k) (6.2.7)

donde

B(q)
G(q) = (6.2.8)
A(q)
C(q)
H (q) = (6.2.9)
A(q)

Los parámetros ajustables en este caso son los siguientes:

θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c ]T

Este modelo de estructura, mostrado en la figura 6.2, se denomina ARMAX, y


es un modelo estándar de control y también en econometría, tanto para descripción
como para control de sistemas. Una versión de este es el modelo ARIMA(X), don-
de la I indica integración, y es muy útil para describir sistemas con perturbaciones
lentas. Se obtiene sustituyendo en la ecuación y(k) por 1I (k) = y(k) − y(k − 1).
Este modelo se suele utilizar cuando las perturbaciones aparecen en la entrada del
sistema, lo que es frecuente en muchos sistemas.

Modelo OE En los modelos anteriores todas las descripciones de G y de H


tenían al polinomio A en el denominador. Desde un punto de vista físico, puede
parecer más natural parametrizar estas funciones independientemente. Si conside-
ramos que la perturbación es un ruido blanco, y un modelo de estructura como la
6.2. Familias de modelos utilizadas en identificación 243

e(k)

C(z)
A(z)

u(k) B(z) + + y(k)

A(z)

Fig. 6.2: Estructura de modelo ARMAX

mostrada en 6.3 tendremos que

ω(k) + f 1 ω(k − 1) + . . . + f n f ω(k − n f ) =


b1 u(k − 1) + . . . + bn b u(k − n b ) (6.2.10)
y(k) = ω(k) + e(k) (6.2.11)

con
F(q) = 1 + f 1 q −1 + . . . + f n f q −n f
el modelo quedará como

B(q)
y(k) = u(k) + e(k) (6.2.12)
F(q)

y el vector de parámetros a determinar será, en este caso, el siguiente:

θ = [b1 , . . . , bn b , f 1 , . . . , f n f ]T

Este modelo presenta mayores dificultades a la hora de realizar su estimación


que los modelos ARX o ARMAX. Permite obtener una descripción correcta de la
función de transferencia determinista sin importar la forma que tomen las pertur-
baciones.

Modelo Box-Jenkins Una generalización natural del modelo de error en la sa-


lida es añadir propiedades al error que se suma en la salida. El modelo de estructura
Box-Jenkins es el siguiente

B(q) C(q)
y(k) = u(k) + e(k) (6.2.13)
F(q) D(q)
244 6. Identificación de sistemas dinámicos

e(k)

u(k) B(z) + + y(k)

F(z)

Fig. 6.3: Estructura de modelo OE

e(k)

C(z)
D(z)

u(k) B(z) + + y(k)

F(z)

Fig. 6.4: Estructura de modelo Box-Jenkins

y el vector de parámetros a determinar será en este caso el siguiente:

θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c , f 1 , . . . , f n f ]T
En general es el modelo más difícil de estimar. Es adecuado cuando las pertur-
baciones aparecen en la salida, por ejemplo, en el caso de ruido de salida.

Modelo en el espacio de estados


En el espacio de estados, las relaciones entre las entradas, salidas y perturba-
ciones se formulan como un sistema de ecuaciones diferenciales o ecuaciones en
diferencias de primer orden, utilizando un vector de estado auxiliar x(k). Si nos
limitamos a los modelos de sistemas de tipo discreto, podemos suponer un modelo
del siguiente tipo
x(k + 1) = Gx(k) + Hu(k) (6.2.14)
y(k) = C x(k) + Du(k) + ν(k) (6.2.15)

en este modelo suponemos que la perturbación se incorpora al sistema como un


ruido aditivo en la salida del sistema. Como ya se había visto para modelos de
6.3. Métodos de estimación no-paramétricos 245

sistemas en el espacio de estados, existe una relación sencilla entre este modelo y
la función de transferencia del sistema.
Al modelo anterior le corresponde un modelo de función de transferencia en
tiempo discreto de la forma

y(k) = G(q)u(k) + ν(k)

El paso de una a otra expresión se podía realizar por medio de la transformada


z, lo que daba como resultado que

Y (z)
G(z) = X(z)
U (z)
= C[z I − G]−1 H + D (6.2.16)

que, si se verifica que la matriz [z I − G]−1 es no-singular, corresponde a un modelo


del tipo ARX u OE.

6.3. Métodos de estimación no-paramétricos

Este grupo de métodos tratan de determinar la función de transferencia del sis-


tema o su respuesta impulsional por técnicas directas, sin seleccionar previamente
un cierto conjunto de posibles modelos.
Tales métodos son llamados métodos no paramétricos dado que no emplean de
forma explícita un vector de parámetros de dimensión finita en la búsqueda de la
mejor descripción.
En todo el tratamiento que se hace de los métodos no paramétricos, se supone
que el sistema trabaja en bucle abierto, ya que las configuraciones en bucle cerrado
conducen a situaciones problemáticas para los métodos no paramétricos y cuyas
soluciones escapan al alcance de este libro.
Dentro de los métodos no paramétricos podemos distinguir dos grupos básicos:

1. Estimación de la respuesta impulsional. Estos métodos se basan en el aná-


lisis de la respuesta transitoria del sistema ante una cierta entrada de refe-
rencia, en los que se observa la respuesta del mismo ante dichas entradas,
que suelen ser una entrada en escalón o un impulso o bien en técnicas de
correlación.

2. Estimación de la respuesta frecuencial. Estos métodos se basan en el aná-


lisis de la respuesta frecuencial de un sistema ante una entrada de referencia
de tipo sinusoidal, en los que se observan los cambios en la amplitud y fase
de la sinusoide de salida o bien en el análisis espectral.
246 6. Identificación de sistemas dinámicos

6.3.1. Estimación de la respuesta temporal


Un primer paso en la identificación de muchos sistemas suele ser el observar
la respuesta del sistema ante una entrada del tipo impulso y/o un escalón. De dicha
observación se puede extraer diferente información:

Las variables afectadas por la entrada. Esto permite determinar que influen-
cias pueden ser o no ser despreciadas.

Las constantes de tiempo del sistema. Esto nos permite determinar cuál de
las relaciones en el modelo pueden considerarse como estáticas, esto se suele
hacer cuando sus constantes de tiempo son significativamente más rápidas
que la escala de tiempos a la que se está trabajando.

Las características de la respuesta temporal ante un escalón así como la ga-


nancia estática nos dan información sobre el modelo a usar en la identifica-
ción.

Desde un punto de vista teórico, es posible estimar por medio del análisis de la
respuesta temporal de un sistema a un impulso o un escalón, la respuesta impulsio-
nal de dicho sistema. Aunque, como veremos posteriormente, dicha estimación es
muy poco robusta a los efectos de las perturbaciones, por lo que, salvo en sistemas
con un nivel de ruido muy bajo, esta técnica suele descartarse.

Análisis de la respuesta a un impulso


Si un sistema que es descrito por una ecuación del siguiente tipo:

y(k) = G(q)u(k) + ν(k)


es sometido a una entrada impulso de la forma


α, k = 0
u(k) =

0, n 6= 0

entonces la salida será



X
y(k) = g( j)u(k − j) + ν(k)
j=1
= g(k)α + ν(k)

y de esta expresión es muy fácil estimar la respuesta impulsional del sistema, que
se obtiene como
y(k)
ĝ(k) =
α
6.3. Métodos de estimación no-paramétricos 247

y los errores que se cometen en la estimación son


ν(k)
(k) =
α
Como se puede observar, el fundamento teórico de esta técnica es muy simple.
Su principal inconveniente estriba en que muchos procesos físicos no permiten
entradas impulso de tal amplitud que el error que se comete al estimar (k) sea
insignificante comparado con los coeficientes de la respuesta impulsional. O peor
aún, que tal tipo de entrada puede forzar a que el sistema exhiba efectos no lineales
(debido a saturaciones, por ejemplo) que harán que no sea cierta la hipótesis de
linealidad que habíamos supuesto al modelo del sistema.

Ejemplo 6.3.1:

Supongamos un sistema cuyo comportamiento viene definido por la siguiente


expresión:
1 − q −1
y(k) = u(k)
1 + 0.25q −2
si a este sistema se le excita con una entrada de tipo impulso de Dirac, es decir
con una secuencia de entrada {1, 0, 0, 0, . . .} lo que obtendremos en la salida es la
respuesta impulsional del sistema en forma de secuencia, es decir la secuencia
{g(k)} = {1, −1, −0.25, 0.25, 0.0625, −0.0625, 0.0156, . . .}
que será el modelo no-paramétrico del sistema. Esta respuesta se muestra en la
figura 6.5, y se puede observar que el sistema tiene una respuesta impulsional finita.
En el caso de que el sistema esté sometido a perturbaciones, esta técnica no resulta
eficaz puesto que el ruido se incorpora a la respuesta impulsional como se puede
ver en la figura 6.6, donde el sistema ya no tiene una respuesta impulsional finita.

Análisis de la respuesta a un escalón


De forma similar al caso anterior, si se introduce un escalón del tipo


α, k ≥ 0
u(k) =

0, k < 0
en el sistema y(k) = G(q)u(k) + ν(k) obtenemos la siguiente salida

X
y(k) = g( j)u(k − j) + ν(k)
j=1

X
= g( j)α + ν(k)
j=1
248 6. Identificación de sistemas dinámicos

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1

0 2 4 6 8 10 12 14 16 18 20

Fig. 6.5: Respuesta impulsional

1.2

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8
0 2 4 6 8 10 12 14 16 18 20

Fig. 6.6: Respuesta impulsional en presencia de ruido aditivo en el sistema


6.3. Métodos de estimación no-paramétricos 249

y de aquí, las estimaciones de g(k) pueden obtenerse como


y(k) − y(k − 1)
ĝ(k) =
α
y los errores que se cometen en la estimación son

ν(k) − ν(k − 1)
(k) =
α
En general, si queremos determinar realmente los coeficientes de la respuesta
impulsional utilizando esta técnica, cometeremos errores muy grandes en la mayo-
ría de las aplicaciones prácticas. Sin embargo, si el objetivo es determinar algunas
características básicas relacionadas con aspectos de control, como son: el tiempo
de retardo, la ganancia estática y la constante de tiempo dominante, la respuesta a
un escalón puede darnos una información con un grado suficiente de precisión.

Ejemplo 6.3.2:

Si suponemos un sistema de la forma

1 − 0, 1q −1
y(k) = u(k)
1 + 0, 25q −2
y a este sistema se le excita con una entrada de tipo escalón unitario, es decir con
una secuencia de entrada {1, 1, 1, 1, . . .}, la respuesta del sistema será la mostrada
en la figura 6.7, es decir

{y(k)} = {0, 1.00, 0.90, 0.65, 0.675, 0.7375, 0.7312, 0.7156 . . .}

y de aquí tendremos que la respuesta impulsional del sistema se obtiene de la si-


guiente expresión
y(k) − y(k − 1)
ĝ(k) =
1
es decir la secuencia de salida será

{g(k)} = {1.0 − 0.1 − 0.25 0.025 0.0625 − 0.0063 . . .}

que será el modelo no-paramétrico del sistema. Se puede observar que el sistema
tiene una respuesta impulsional finita.

Estimación por correlación


Si consideramos un modelo de sistema dado por

y(k) = G(q)u(k) + ν(k)


250 6. Identificación de sistemas dinámicos

1.2

0.8

0.6

0.4

0.2

0
0 2 4 6 8 10 12 14 16 18 20

Fig. 6.7: Respuesta a un escalón

al que se le introduce en su entrada una secuencia estocástica estacionaria, es decir


si u(k) verifica que:
E[u(k)] = m u (k)
(6.3.1)
E[u(k)u(k − τ )] = Ruu (k − τ ) = Ruu (τ )
y si además verifica que es ergódica

Ruu (τ ) = E[u(k)u(k − τ )]
1 X
N
= lim E[u(k)u(k − τ )] (6.3.2)
N →∞ N
t=1

y que no está correlada con el ruido del sistema

Ruν (τ ) = E[u(k)ν(k − τ )] = 0 (6.3.3)

entonces, tal y como vimos en el capítulo 1, cuando hablábamos de procesos esto-


cásticos, se verifica que

R yu (τ ) = E[y(k)u(k − τ )]

X
= g(k)Ruu (k − τ ) (6.3.4)
k=1

En la expresión 6.3.4, podemos determinar g(k) si conocemos los valores de las


funciones de correlación cruzada y de autocorrelación, R yu (τ ) y Ruu (τ ). Podemos
6.3. Métodos de estimación no-paramétricos 251

distinguir dos situaciones distintas dependiendo de las posibilidades que tenemos


de trabajar con el sistema.

Si se puede escoger la entrada al sistema de forma que esta sea un ruido


blanco, el proceso de identificación se facilita considerablemente, ya que
este ruido verifica que su función de autocorrelación es un impulso de Dirac,
es decir
Ruu (τ ) = αδτ
y entonces tendremos que la expresión 6.3.4 se reduce a la siguiente expre-
sión

X
R yu (τ ) = g(k)Ruu (k − τ )
k=1

X
= g(k)αδk−τ
k=1
= g(τ )α
y de aquí que
R yu (τ )
g(τ ) = (6.3.5)
α
por lo que se puede obtener una estimación de la respuesta impulsional del
sistema a partir de la correlación cruzada entre la entrada y la salida del
sistema, es decir
R̂ yu (τ )
ĝ(τ ) = (6.3.6)
α
donde la estimación de R̂ yu , para un número acotado N de medidas, se ob-
tiene a partir de la siguiente expresión

1 X
N
R̂ yu (τ ) = y(k)u(k − τ ) (6.3.7)
N k=τ

En el caso de que la entrada no sea ruido blanco, no es posible una estimación


tan directa de la respuesta impulsional del sistema. Podríamos estimar la
autocorrelación de la entrada
1 X
N
R̂uu (τ ) = u(k)u(k − τ ) (6.3.8)
N k=τ

y a continuación resolver el siguiente sistema de ecuaciones

X
M
R̂ yu (τ ) = ĝ(k) R̂uu (k − τ ) (6.3.9)
k=1
252 6. Identificación de sistemas dinámicos

−1
0 100 200 300 400 500 600 700 800 900 1000

Fig. 6.8: Auto correlación de la señal de entrada

Ejemplo 6.3.3:

En la figura 6.8 se muestra la función de autocorrelación de una señal de ruido


blanco que se introduce en la entrada del sistema del ejemplo anterior. En él se
han considerado 500 muestras, por lo que el punto 500 de la gráfica es el que
corresponde a τ = 0. La figura 6.9 muestra la función de correlación entre la
entrada y la salida de sistema y en la figura 6.10 se puede observar la respuesta
impulsional del sistema obtenida mediante esta técnica (en este ejemplo no se ha
añadido ruido de salida al sistema).

6.3.2. Estimación de la respuesta frecuencial


Dada la función de transferencia G(z) de un cierto sistema, si sustituimos z
por e jω , tenemos como resultado un número complejo G(e jω ) que contiene in-
formación con respecto al comportamiento que tendrá el sistema ante una entrada
sinusoidal. Si suponemos una estructura de modelo del tipo
y(k) = G(q)u(k) + v(k)
y se introduce en el mismo una entrada del tipo
u(k) = A sin ωkT k = 0, 1, 2, . . .
la respuesta del sistema será de la forma
y(k) = y per m (k) + ytrans (k) + v(k)
donde el término de respuesta permanente del sistema viene dado por
y per m (k) = A|G(e jω )| sin(ωkT + ϕ)
6.3. Métodos de estimación no-paramétricos 253

−1

−2
0 100 200 300 400 500 600 700 800 900 1000

Fig. 6.9: Correlación cruzada entre la entrada y la salida

1.2

0.8

0.6

0.4

0.2

−0.2
0 10 20 30 40 50 60 70 80 90 100

Fig. 6.10: Respuesta impulsional


254 6. Identificación de sistemas dinámicos

Bode Diagrama de Bode

0
Fase (deg); Magnitud (dB)

−1

−2

−3

20

15

10

5
To: Y(1)

−5

−10

−15

−20
−1 0
10 10

Frecuencia (rad/sec)

Fig. 6.11: Identificación por el método de la respuesta frecuencial

con
ϕ = 6 G(e jω )

Aquí se puede apreciar que, si se van introduciendo entradas sinusoidales de


diferentes frecuencias, y se determina para cada una de ellas la amplitud y fase de
la respuesta del sistema, es posible estimar la función de transferencia del sistema
Ĝ(e jω ). Esta técnica se conoce como análisis frecuencial, y es una de las formas
más simples de obtener información sobre sistemas lineales.

Obtención directa de la respuesta frecuencial

Esta técnica si bien es simple, no siempre resulta posible su utilización ya que


suele ser un proceso lento puesto que hay que repetir el ensayo un número de veces
considerable para que los datos sean fiables.

Ejemplo 6.3.4:

En la figura 6.11 se muestra el diagrama de Bode para el sistema

1 − 0.1q −1
y(k) = u(k)
1 + 0.25q −2
6.3. Métodos de estimación no-paramétricos 255

Estimación mediante análisis espectral


Si tenemos un sistema de la forma

X
y(n) = g(k)u(n − k) + ν(n)
k=0

donde {g(k)} es la secuencia de ponderación y ν(n) es el término de perturbaciones.


Suponemos que la entrada del sistema es un proceso estocástico estacionario e
independiente de la perturbación. Entonces tenemos que:

X
R yu (τ ) = g(k)Ruu (k − τ ) (6.3.10)
k=1

estas correlaciones pueden estimarse a partir de una secuencia experimental de N


muestras como
N −τ
1 X
R̂uu (τ ) = u(n + τ )u(n) (6.3.11)
N t=1
N −τ
1 X
R̂ yu (τ ) = y(n + τ )u(n) (6.3.12)
N t=1
Haciendo las transformadas de Fourier de las expresiones de estas correlacio-
nes, obtenemos la siguiente expresión para la densidad espectral cruzada

Syu (ω) = G(e− jω )Suu (ω) (6.3.13)

donde, las densidades podíamos obtenerlas a partir de la función de autocorrelación


y de correlación cruzada según las siguientes ecuaciones

+∞
1 X
Suu (ω) = Ruu (τ )e− jωτ (6.3.14)
2π τ =−∞
+∞
1 X
Syu (ω) = R yu (τ )e− jωτ (6.3.15)
2π τ =−∞

La función de transferencia podrá estimarse a partir de la ecuación 6.3.13 como

Ŝyu (ω)
Ĝ(e− jω ) = (6.3.16)
Ŝuu (ω)
Para realizar esta estimación es necesario encontrar una forma razonable de
estimar las densidades espectrales. Una posible forma de encarar este problema
256 6. Identificación de sistemas dinámicos

consiste en tomar como valor estimado de la densidad espectral el que se obtiene a


partir de las muestras, es decir
+N
1 X
Ŝyu (ω) = R yu (τ )e− jωτ (6.3.17)
2π τ =−N

y si en esta expresión sustituimos R yu por el valor estimado obtenido R̂ yu en fun-


ción de y(n + τ ) y u(n), tenemos que
+N N −τ
1 X X
Ŝyu (ω) = y(n + τ )u(n)e− jωτ (6.3.18)
2π τ =−N t=1

si sustituimos s = t + τ , tenemos que

e− jωτ = e− jω(s−t) = e− jωs e jωt (6.3.19)

con lo que

1 XX
N N
Ŝyu (ω) = y(s)u(n)e− jωs e jωt (6.3.20)
2π N s=1 t=1
1
= Y N (ω)U N (−ω) (6.3.21)
2π N
donde
X
N
Y N (ω) = y(s)e− jωs (6.3.22)
s=1
X
N
U N (ω) = u(n)e− jωt (6.3.23)
t=1

son las transformadas discretas de Fourier de las secuencias {y(n)} y {u(n)}. Para
w = 0, 2π N
, 4π
N
, . . . , π pueden calcularse de forma muy eficiente usando la trans-
formada rápida de Fourier (FFT).
De forma análoga, para la densidad autoespectral de la entrada, podríamos ob-
tener que
1
Ŝuu (ω) = U N (ω)U N (−ω) (6.3.24)
2π N
y con estas dos expresiones podemos estimar la función de transferencia como

Y N (ω)
Ĝ(e− jω ) = . (6.3.25)
U N (ω)
6.3. Métodos de estimación no-paramétricos 257

y(t)
0.4

0.2

−0.2

−0.4
0 50 100 150 200 250 300 350 400 450 500

u(t)
0.3

0.2

0.1

−0.1

−0.2

−0.3

0 50 100 150 200 250 300 350 400 450 500

Fig. 6.12: Entrada ruido blanco y salida del sistema

Ejemplo 6.3.5:

Para el mismo sistema que en el caso anterior,

1 − 0.1q −1
y(k) = u(k)
1 + 0.25q −2
introduciendo de nuevo un ruido blanco en la entrada obtenemos la salida mos-
trada (figura 6.12) y aplicando el método del análisis espectral obtenemos que la
respuesta frecuencial del sistema es la mostrada en la figura 6.14 que como se pue-
de observar es completamente similar a la obtenida mediante la aplicación directa
del método de Bode con una frecuencia cada vez. Esta técnica tiene la gran ventaja
de que con un único ensayo se puede estimar la respuesta frecuencial de un sistema
(siempre que podamos generar el ruido blanco).

6.3.3. Generación de ruido blanco


En términos generales, para conseguir una buena identificación, tanto de tipo
espectral como de cualquier otro tipo, es conveniente la utilización de señales de
entrada que presenten unas características estadísticas adecuadas. En este sentido
es frecuente la utilización de secuencias binarias pseudo-aleatorias (PRBS, pseudo
random binary sequences) descritas por Davies en 1970 y que da lugar a una se-
cuencia periódica cuya función de autocorrelación se parece mucho al ruido blan-
co, presentando un pico para τ = 0 y siendo una función plana para el resto de los
valores.La ventaja de este tipo de funciones, aparte de su adecuación estadística,
258 6. Identificación de sistemas dinámicos

1
10

Módulo
0
10

−1
10
−2 −1 0 1
10 10 10 10
frecuencia (rad/sec)

20

15

10

5
Fase

−5

−10

−15
−2 −1 0 1
10 10 10 10
frecuencia (rad/sec)

Fig. 6.13: Respuesta en frecuencia según el análisis espectral

es la facilidad con la que se puede generar puesto que basta utilizar un registro de
desplazamiento y una puerta O R − exclusiva. Esta función se denomina pseudo-
aleatoria puesto que se repite con un cierto periodo, que normalmente es elegible
para que tome un valor suficientemente alto.

x(t)

+a

t
-a

Rxx
a2

−δ δ
0 T -a2δ/T τ

δ= periodo básico

T= periodo de repetición de la señal binaria pseudo-aleatoria

Fig. 6.14: Señal binaria pseudo-aleatoria


6.4. Métodos paramétricos 259

6.4. Métodos paramétricos

6.4.1. El concepto de regresión


En la teoría estadística la regresión está relacionada con la predicción de una
variable y, sobre la base de la información suministrada por otras variables medidas
ϕ1 , . . . , ϕd . La variable dependiente y puede, por ejemplo, ser el resultado de una
cosecha, mientras que las variables independientes ϕi (los regresores) dan informa-
ción sobre los datos de lluvia, horas de sol, calidad del suelo, etc. Otra aplicación
típica son los sistemas dinámicos, donde y es la salida del sistema en un instante
dado y ϕi contiene información acerca de la evolución anterior. Si denotamos
 
ϕ
 1
 
ϕ2 
ϕ= 
 .. 
.
 
ϕd
El problema es encontrar una función de los regresores g(ϕ) tal que la diferen-
cia
y − g(ϕ)
sea pequeña. Si y y ϕ se definen en términos estocásticos, es posible, por ejemplo,
tratar de minimizar la esperanza matemática del error cuadrático existente entre la
salida real y la que proporciona la estimación

E[(y − g(ϕ))2 ]

6.4.2. Regresión lineal


Cuando no se conocen las propiedades de las variables y y ϕ, no es posible
determinar la función de regresión g(ϕ) a priori. Tiene que ser estimada a partir de
los datos y debe además estar adecuadamente parametrizada. El caso especial don-
de esta parametrización está restringida a ser lineal ha sido ampliamente estudiado.
En este caso la función g(ϕ) es de la forma

g(ϕ) = θ1 ϕ1 + θ2 ϕ2 + . . . + θd ϕd

o expresado en forma vectorial

g(ϕ) = ϕ T θ

donde θ = [θ1 . . . θd ]T
260 6. Identificación de sistemas dinámicos

6.4.3. Estimación por mínimos cuadrados


El concepto de estimación por mínimos cuadrados se basa en el concepto de
regresión lineal, muy extendido en estadística y que tuvo su origen en Gauss, quién
la utilizó por primera vez para estimar las órbitas de los planetas.
La regresión lineal es el modelo más simple de modelo paramétrico. La estruc-
tura del modelo correspondiente puede escribirse como

y(k) = ϕ T θ

donde:

y(k) es la magnitud medible.

ϕ es un n-vector de elementos denominados regresores.

θ es el vector de parámetros.

Recordemos que para una estructura de modelo del tipo ARX tenemos que

y(k) + a1 y(k − 1) + . . . + ana y(k − n a ) =


b1 u(k − 1) + . . . + bn b u(k − n b ) + e(k) (6.4.1)

con e(k), ruido blanco de media cero. Si operamos con la ecuación anterior obte-
nemos un modelo de regresión lineal

y(n) = −a1 y(n − 1) − . . . − ana y(k − n a ) +


b1 u(n − 1) + . . . + bn b u(k − n b ) + e(k) (6.4.2)

donde el vector de regresores y el de parámetros son los siguientes:

ϕ(k) = [−y(k − 1) − y(k − 2) . . . − y(k − n a )u(k − 1) . . . u(k − n b )]T


θ = [a1 . . . ana b1 . . . bn b ]T
(6.4.3)
El problema básico en la estimación, consiste en encontrar un estimador θ̂ del
vector de parámetros θ a partir de las medidas observadas y(1), ϕ(1), . . . , y(N ), ϕ(N ).
Dadas estas medidas, lo que se obtiene es un sistema de ecuaciones lineales a partir
de la expresión de la regresión lineal, es decir

y(1) = ϕ T (1)θ
y(2) = ϕ T (2)θ (6.4.4)
... ...
T
y(N ) = ϕ (N )θ (6.4.5)
6.4. Métodos paramétricos 261

que en notación matricial se puede expresar como

Y = 8θ

donde  
 y(1) 
 
 y(2) 
Y = . 


 .. 
 
y(N )
y
 
 ϕ T
(1) 
 T 
 ϕ (2) 

8= .  
 .. 
 
ϕ (N )
T

Una forma de resolver el sistema de ecuaciones 6.4.5 consiste en tomar el nú-


mero de medidas N igual al número de parámetros del vector θ (n). Con ello, 8 se
convierte en una matriz cuadrada. Si esta matriz es no singular, el sistema se puede
resolver fácilmente para θ.
En la práctica, sin embargo, el ruido, las perturbaciones, y los desajustes en el
modelo, constituyen buenas razones para utilizar un número de datos mayor que n.
Con el aumento del número de datos es posible conseguir una mejor estimación.
Al hacer N > n se tiene un sistema sobredeterminado y no se tiene por lo general
una solución exacta.
Si denominamos error de ecuación a

(k) = y(k) − ϕ T (k)θ

y formamos un vector de errores de la forma


 
 (1) 
 
 (2) 
= . 

 = Y − 8θ (6.4.6)
 .. 
 
(N )

el estimador de mínimos cuadrados de θ se define como el θ̂ que minimiza la


función de pérdidas o coste definida de la siguiente forma
262 6. Identificación de sistemas dinámicos

X
N
V (θ) =  2 (k) =  T  (6.4.7)
t=1

Se puede observar que (k), el error de ecuación, es una función lineal del
vector de parámetros θ.

Obtención del Estimador de Mínimos Cuadrados


Si consideramos la función de pérdidas V (θ) definida por

V (θ) = (Y − 8θ)T (Y − 8θ) = Y T Y − θ T 8T Y − Y T 8θ + θ T 8T 8θ

derivamos dicha expresión con respecto a θ y la igualamos a cero, obtenemos

d V (θ)
= −28T Y + 28T 8θ = 0

y de aquí obtenemos las denominadas ecuaciones normales

8T 8θ = 8T Y (6.4.8)

Esta ecuaciones tienen una única solución, que constituye un mínimo de la función
V (θ), si suponemos que la matriz 8T 8 es definida positiva.
Por lo tanto, despejando θ en la ecuación normal tenemos que el estimador de
mínimos cuadrados es
θ̂ = (8T 8)−1 8T Y (6.4.9)
y el valor mínimo de V (θ) es

1
V (θ̂) = [Y T Y − Y T 8(8T 8)−1 8T Y ]
2
El estimador de mínimos cuadrados obtenido en 6.4.9 puede escribirse como
!−1 !
1 X T 1 X
N N
θ̂(k) = ϕ (k)ϕ(k) ϕ(k)y(k) . (6.4.10)
N t=1 N t=1

Ejemplo 6.4.1: Supongamos que se tiene un cierto sistema que se pretende iden-
tificar. A dicho sistema se le introduce en la entrada un escalón unitario u(0) =
1, u(1) = 1, u(2) = 1, u(3) = 1, . . . y se observa que la salida del sistema toma
los siguientes valores en los 4 primeros periodos de muestreo: y(0) = 0, y(1) =
0.65, y(2) = 0.85, y(3) = 0.92, . . ..
6.4. Métodos paramétricos 263

Vamos a analizar tres posibles modelos para este sistema:

Modelo 1 : y(k) = b1 u(k − 1)


Modelo 2 : y(k) = −a1 y(k − 1) + b1 u(k − 1)
Modelo 3 : y(k) = −a1 y(k − 1) − a2 y(k − 2) + b1 u(k − 1)

Modelo 1: Para este modelo el vector de regresores y el de parámetros son


respectivamente:

φ(k) = u(k − 1)
θ = b1

entonces utilizando por simplicidad los tres primeros valores de la salida


para la estimación, obtenemos lo siguiente

θ̂ = (8T 8)−1 8T Y
  −1  
h i 0 h i 0 
    
=  0 1 1 1 0 1 1  
   0.65
1 0.85
0.65 + 0.85
= = 0.75
2

es decir el modelo que obtendríamos sería y(k) = 0.75u(k − 1). Este mode-
lo estimado da para la secuencia de entradas anteriores las siguientes salidas
y(0) = 0, y(1) = 0, y(2) = 0.75, y(4) = 0.75, . . .. Por lo tanto la se-
cuencia de errores que comete el modelo es (0) = 0, (1) = 0.65, (2) =
0.10, (4) = 0.17, . . ..

Modelo 2: Para este modelo el vector de regresores y el de parámetros son:

h iT
φ(k) = −y(k − 1) u(k − 1)
h iT
θ = a1 b1

Utilizando como en el caso anterior, por simplicidad, los tres primeros valo-
264 6. Identificación de sistemas dinámicos

res de la salida para la estimación, obtenemos lo siguiente


θ̂ = (8T 8)−1 8T Y
  −1  
  0 0   0
    
0 1 1   0 1 1  
=   1 0.65
 0 0 −0.65  0  0 0 −0.65  
−0.65 1 0.85
 
−0.3077
= 
0.6485
es decir, el modelo que obtendríamos sería y(k) = 0.3077y(k−1)+0.6485u(k−
1). Este modelo da para la secuencia de entradas anteriores las siguientes sa-
lidas y(0) = 0, y(1) = 0.6485, y(2) = 0.848, y(4) = 0.9094, . . .. Por lo
tanto la secuencia de errores que comete el modelo es (0) = 0, (1) =
0.0015, (2) = 0.002, (4) = 0.010, . . ..
Modelo 3: Para este modelo el vector de regresores y el de parámetros son:
h iT
φ(k) = −y(k − 1) −y(k − 2) u(k − 1)
h iT
θ = a1 a2 b1

utilizando los cuatro valores de la salida para la estimación, obtenemos lo


siguiente
θ̂ = (8T 8)−1 8T Y
  −1
 
  0 0 0
0 1 1 1  
  0 0 1 
= 
 0 0 0 −0.65
 .

  1 
 0 0 −0.65 −0.85 −0.65 0 
−0.85 −0.65 1
 
 
 0 
0 1 1 1  
 0.65

0 0 −0.65
 0  
0.85
0 0 −0.65 −0.85  
0.92
 
−0.3077
 
= −2.0130
 
0.65
6.4. Métodos paramétricos 265

es decir, el modelo que obtendríamos sería y(k) = 0.3077y(k−1)+2.013y(k−


2) + 0.65u(k − 1). Este modelo da para la secuencia de entradas anterio-
res las siguientes salidas y(0) = 0, y(1) = 0.65, y(2) = 0.85, y(3) =
2.21, . . .. Por lo tanto la secuencia de errores que comete el modelo es (0) =
0, (1) = 0, (2) = 0, (3) = 1.29, . . ..

De los tres modelos analizados, y para los datos que se están considerando el
modelo que mejor se ajusta es el modelo 2, pues el tercero de los modelos para el
último dato ajusta mal.

Ejemplo 6.4.2: Un radar observa el movimiento en línea recta de un cierto ob-


jetivo cada 0.2 segundos. Se desea predecir su posición. Un modelo muy simple
consiste en suponer que dicho objetivo se mueve con aceleración constante, con lo
que el modelo para estimar la posición de dicho objetivo se puede formular como
x(t) = x0 + v0 t + 12 at 2 donde x0 y v0 son la posición y velocidad iniciales. La
secuencia de observaciones (t, x) ha sido la siguiente

{(0, 3)(0.2, 59)(0.4, 98)(0.6, 151)(0.8, 218)(1, 264)}

Nuestro vector de parámetros θ es

θ = [x0 v0 a]T

y el de regresores
1 2
ϕ = [1 t t ]
2
con lo que la matriz 8 será
 
1 0 0 
 
1 0.2 0.02

8 = . 
.. 
 .. . 
 
1 1 0.5

como el vector Y = [3, 2.59, . . . , 264]T tendremos que el estimador de mínimos


cuadrados será

θ̂ = (8T 8)−1 8T Y
h iT
= x̂0 v̂0 â
h iT
= 4.79 234 55.4
266 6. Identificación de sistemas dinámicos

6.4.4. Formulación recursiva del estimador de mínimos


cuadrados
Es frecuente en muchos sistemas de control, especialmente en aquellos de ti-
po adaptativo o con algún tipo de autoajuste, que la estimación de los parámetros
del modelo tenga que realizarse a medida que va llegando nueva información. Esta
información llega típicamente en cada periodo de muestreo. Es por ello necesario,
en estos tipos de sistemas, buscar una formulación recursiva del estimador de mí-
nimos cuadrados de forma que la estimación de los parámetros en el instante k se
realice en base al error de predicción cometido y al valor previo del estimador en
el ciclo anterior k − 1.
Supongamos por simplicidad el caso escalar (dimensión de y igual a 1) donde
el estimador que obteníamos era de la forma

θ̂(k) = (8T (k)8(k))−1 8T (k)Y (k) (6.4.11)

Si reescribimos la expresión de la matriz de regresores acumulada hasta k,


8(k), como función de la matriz de regresores acumulada hasta el instante de tiem-
po k − 1, 8(k − 1), y del vector de regresores en k, ϕ(k), tendremos que
 
 ϕ (1) 
T
 
 ϕ T (2)   
 
 ..  8 T
(k − 1)
8(k) =  . = 
 
 T  ϕ (k)
T
ϕ (k − 1)
 
ϕ T (k)

Haciendo lo mismo con la expresión de las entradas acumuladas al sistema Y ,


tendremos
 
 y(1) 
 
 y(2)   
 
 ..   Y (k − 1)
Y (k) =  . =
 
  y(k)
 y(k − 1)
 
y(k)

Si denominamos P(k) al término

P(k) = [8T (k)8(k)]−1 (6.4.12)


6.4. Métodos paramétricos 267

es posible expresar este término en forma recursiva

P −1 (k) = 8T (k)8(k)
 T  
8(k − 1) 8(k − 1)
=
ϕ T (k) ϕ T (k)
 
h i 8(k − 1) (6.4.13)
= 8T (k − 1)ϕ(k)  
ϕ T (k)
= 8(k − 1)T 8(k − 1) + ϕ(k)ϕ T (k)
= P −1 (k − 1) + ϕ(k)ϕ T (k)

de donde tenemos que la ecuación 6.4.11 para el instante de tiempo k puede rees-
cribirse como

θ̂(k) = (8T (k)8(k))−1 8T (k)Y (k)


= P(k)8T (k)Y (k)
 
Y (k − 1) (6.4.14)
= P(k)[8T (k − 1)ϕ(k)]  
y(k)
= P(k)[8T (k − 1)Y (k − 1) + ϕ(k)y(k)]

Utilizando la expresión de la fórmula no recursiva de mínimos cuadrados 6.4.11

θ̂(k) = P(k)[ P −1 (k − 1)θ̂(k − 1) + ϕ(k)y(k)] (6.4.15)

Por otra parte, de la ecuación 6.4.13 tenemos que

P −1 (k − 1) = P −1 (k) − ϕ(k)ϕ T (k) (6.4.16)

y sustituyéndolo en la expresión anterior

θ̂(k) = P(k)[( P −1 (k) − ϕ(k)ϕ T (k))θ̂(k − 1) + ϕ(k)y(k)]


= θ̂(k − 1) + P(k)ϕ(k) [y(k) − ϕ T (k)θ̂(k − 1)] (6.4.17)
| {z } | {z }
K (k) (k)

es decir

θ̂(k) = θ̂(k − 1) + K (k)(k) (6.4.18)


T
(k) = y(k) − ϕ (k)θ̂(k − 1) (6.4.19)
K (k) = P(k − 1)ϕ(k) (6.4.20)
268 6. Identificación de sistemas dinámicos

En estas expresiones anteriores el término (k) debe interpretarse como el error


de predicción. Y es la diferencia entre la salida medida y(k) y la predicción del
valor en la salida obtenida a partir de la estimación dada por θ̂(k − 1) que será
ϕ T (k)θ̂(k − 1). A esta diferencia se le denomina también innovación.
Si (k) es pequeño, la estimación θ̂(k − 1) es buena y por lo tanto no debe
de cambiar mucho. El vector K (k) es el factor de ponderación o ganancia, que
indica cuanto debe de modificar la innovación o error de predicción los diferentes
elementos del vector de parámetros.
Para completar el algoritmo anterior, y que sea completamente recursivo, nece-
sitamos calcular P(k), que como ya habíamos visto anteriormente se podía obtener
como
P −1 (k) = P −1 (k − 1) + ϕ T (k)ϕ(k) (6.4.21)
con lo que la formulación recursiva completa del algoritmo de mínimos cuadrados
quedaría de la siguiente forma

θ̂(k) = θ̂(k − 1) + K (k)(k)


(k) = y(k) − ϕ T (k)θ̂(k − 1)
(6.4.22)
K (k) = P(k)ϕ(k)
P −1 (k) = P −1 (k − 1) + ϕ T (k)ϕ(k)
Esta formulación es muy costosa desde el punto de vista computacional, ya que
requiere la inversión de una matriz en cada ciclo, lo que tiende a ser lento.
Un algoritmo más eficaz se puede obtener reescribiendo la ecuación 6.4.21 por
medio del lema de inversión de matrices. Este lema nos dice que si la inversa de
una matriz existe entonces

( A + BC D)−1 = A−1 − A−1 B(C −1 + D A−1 B)−1 D A−1 .


Si aplicamos el lema de inversión de matrices a la expresión de P(k) , tomando

A = P(k − 1)−1
B = ϕ(k)
C=I
D = ϕ T (k)

entonces puede reescribirse de la siguiente forma

P(k) = P(k − 1) − P(k − 1)ϕ(k)[I + ϕ T (k) P(k − 1)ϕ(k)]−1 ϕ T (k) P(k − 1)


(6.4.23)
y sustituyendo la ecuación anterior (6.4.23) en la ecuación de 6.4.22, el algoritmo
quedará en la siguiente forma
6.4. Métodos paramétricos 269

θ̂(k) =θ̂(k − 1) + K (k)(k)


(k) =y(k) − ϕ T (k)θ̂(k − 1)
K (k) = P(k)ϕ(k)
P(k) = P(k − 1) − P(k − 1)ϕ(k)[I + ϕ T (k) P(k − 1)ϕ(k)]−1 ϕ T (k) P(k − 1)
(6.4.24)

Ejemplo 6.4.3: Supongamos que tenemos un sistema de primer orden, de tipo


ARX, cuya ecuación es,

y(k) = a1 y(k − 1) + b1 u(k − 1) + e(k)

donde los valores de los parámetros verdaderos del sistema son a1 = 0.5, b1 = 1
y además suponemos que el sistema esta sometido a una entrada del tipo escalón
unitario. El sistema está también sometido a un ruido blanco e(k) con media cero
y varianza 0.1. Es decir

b1 q −1 1
y(k) = −1
u(k) + e(k)
1 − a1 q 1 − a1 q −1
Suponiendo que el modelo matemático del sistema es de primer orden y esti-
mando mediante mínimos cuadrados recursivos el sistema, obtenemos los resulta-
dos mostrados en la figura 6.15 que nos dan como resultado el siguiente modelo
estimado
0.4759q −1 1
y(k) = −1
u(k) + e(k)
1 − 1.0006q 1 − 1.0006q −1

6.4.5. Método de mínimos cuadrados extendido


Consideremos el modelo ARMAX descrito por la ecuación

y(k) + a1 y(k − 1) + . . . + ana y(k − n a ) =


b1 u(k − 1) + . . . + bn b u(k − n b ) +
e(k) + c1 e(k − 1) + . . . + cn c e(k − n c )

definiendo el vector de regresores como

ϕ0 (k) = [−y(k − 1), . . . , −y(k − n a ), u(k − 1), . . . , u(k − n b )


e(k − 1), . . . , e(k − n c )]T
(6.4.25)
270 6. Identificación de sistemas dinámicos

40
Salida real vs. salida estimada

30 salida estimada

20

10
salida real

0
0 10 20 30 40 50 60 70 80 90
Tiempo (segs)

Error en la predicción

−1

−2
0 10 20 30 40 50 60 70 80 90
Tiempo(segs)

Fig. 6.15: Resultados del ejemplo 6.4.3: salidas real y estimada del sistema, y el
error

y el de parámetros como

θ = [a1 , . . . , ana , b1 , . . . , bn b , c1 , . . . , cn c ]T

podemos reescribir de nuevo la ecuación del modelo ARMAX, que queda de la


siguiente forma

y(k) = ϕ0 (k)T θ + e(k)


Este modelo se parece al modelo de regresión lineal. Podríamos tratar de apli-
car aquí el método de mínimos cuadrados que hemos visto anteriormente para tratar
de estimar θ:

θ̂(k) = θ̂(k − 1) + P(k)ϕ0 (k)[y(k) − ϕ0T (k)θ̂(k − 1)]


(6.4.26)
P −1 (k) = P −1 (k − 1) + ϕ0 (k)ϕ0T (k)

El problema está en que las variables e(k) que entran dentro del vector ϕ0 no
son medibles, y por lo tanto no puede realizarse la estimación del vector de pará-
metros de esta manera. Es necesario reemplazar los componentes e(k) por alguna
estimación de los mismos. De la ecuación del modelo tenemos
6.4. Métodos paramétricos 271

e(k) = y(k) + a1 y(k − 1) + . . . + ana y(k − n a )


−b1 u(k − 1) − . . . − bn b u(k − n b ) +
−c1 e(k − 1) − . . . − cn c e(k − n c ).

Si tenemos una secuencia de estimaciones

θ̂(k) = [â1 (k), . . . , âna (k), b̂1 (k), . . . , b̂n b (k), ĉ1 (k), . . . , ĉn c (k)]T

disponibles, es razonable estimar ê(k), obteniéndolo como

ê(k) = y(k) + â1 (k)y(k − 1) + . . . + âna (k)y(k − n a )


−b̂1 (k)u(k − 1) − . . . − b̂n b (k)u(k − n b )+ (6.4.27)
−ĉ1 (k)ê(k − 1) − . . . − ĉn c (k)ê(k − n c ).

con

ϕ(k) = [−y(k − 1), . . . , −y(k − n a ), u(k − 1), . . . , u(k − n b ),


ê(k − 1), . . . , ê(k − n c )]T
(6.4.28)

la ecuación 6.4.27 puede reescribirse como

ê(k) = y(k) − ϕ T (k)θ̂(k)

Con lo que hemos visto, es posible formular un algoritmo de estimación, sin


más que reemplazar en el de mínimos cuadrados la ϕ0 (k) por ϕ(k), calculada a
partir de las estimaciones de los errores vistas en las dos expresiones anteriores.
Esto da lugar al estimador de mínimos cuadrados extendidos:

θ̂(k) =θ̂(k − 1) + K (k)ê(k)


ê(k) =y(k) − ϕ T (k)θ̂(k − 1)
K (k) = P(k)ϕ(k)
P(k) = P(k − 1) − P(k − 1)ϕ(k)[I + ϕ T (k) P(k − 1)ϕ(k)]−1 ϕ T (k) P(k − 1)
ϕ(k) =[−y(k − 1), . . . , −y(k − n a ), u(k − 1), . . . , u(k − n b ),
ê(k − 1), . . . , ê(k − n c )]T
272 6. Identificación de sistemas dinámicos

6.5. Elección y validación de la estructura del modelo

La elección de una estructura apropiada para un modelo es el aspecto más


importante en el proceso de identificación de un cierto sistema. Este proceso de
determinación de la estructura de un modelo requiere al menos tres pasos:

1. Elección del tipo de modelo. Esto implica decidir si se va a trabajar con


modelos lineales o no lineales, o si se va a trabajar con modelos de función
de transferencia o modelos de estado, etc.

2. Elección del tamaño del modelo. Esto implica determinar el orden del mo-
delo en el espacio de estados o los grados de los polinomios que constituyen
el modelo.

3. Elección de la parametrización del modelo. Una vez que se ha elegido el tipo


y el orden del modelo , queda por determinar la parametrización del mismo,
es decir encontrar una estructura de modelo adecuada.

La calidad del modelo resultante puede medirse por ejemplo por medio del
criterio del error cuadrático medio. Normalmente, la mejor estructura de modelo
suele ser un compromiso entre dos aspectos:

Flexibilidad. Se suelen emplean estructuras de modelos que ofrezcan la po-


sibilidad de describir diferentes sistemas, lo cual se consigue utilizando mu-
chos parámetros o bien situándolos en lugares estratégicos.

Parsimonia. No es conveniente utilizar de forma innecesaria muchos pará-


metros, es decir conviene ser parsimonioso con la parametrización del mo-
delo.

Es importante tener en consideración que aunque en términos generales resulta


muy conveniente que el modelo sea lo más preciso posible, desde un punto de vista
práctico puede ocurrir que el modelo más preciso no sea realizable por el coste
computacional que lleva consigo un modelo muy complejo. Es necesario tener en
cuenta este aspecto, sobre todo en el diseño de sistemas de control.

6.5.1. Validación del modelo


Para poder comparar entre los diferentes modelos elegidos para hacer el ajuste
de los parámetros, lo primero que suele evaluarse es la suma de los cuadrados de
los errores de predicción que comete cada modelo sobre uno o varios conjuntos
de datos distintos del utilizado para el ajuste de los parámetros. Esta suma de los
errores cuadráticos de predicción V (θ) o función de pérdidas, se utilizará para
6.5. Elección y validación de la estructura del modelo 273

seleccionar de entre todos los modelos el que menor función de pérdidas tiene.
Este procedimiento se denomina validación cruzada.
Cuando el modelo se valida sobre el mismo conjunto de datos sobre el que
se ha realizado la estimación de los parámetros, el ajuste mejora cuanto mayor es
el orden del modelo que se ajusta. Esto es necesario compensarlo para evitar que
los sistemas tengan una complejidad innecesaria. Entre las técnicas más utilizadas
están el criterio del error final de predicción (FPE) debido a Akaike y el criterio
de información teórica (AIC) muy relacionado con el anterior.

El criterio FPE de Akaike se obtiene de la siguiente expresión


1 + n/N
FPE = .V (θ) (6.5.1)
1 − n/N
donde n es el número total de parámetros estimados, N es la longitud de la
secuencia de datos y V la función de pérdidas.

El criterio AIC se obtiene como

AI C = log[(1 + 2n/N ).V (θ)] (6.5.2)


274 6. Identificación de sistemas dinámicos

Bibliografía

[1] L. Ljung, System Identification: Theory for the User, Prentice Hall, 1987.

[2] L. Ljung and T. Söderstrom, Theory and Practice of Recursive Identification,


The MIT Press, 1983.

[3] T. Söderstrom and P. Stoica, System Identification, Prentice Hall, 1989.

[4] J. P. Norton, An Introduction to Identification, Academic Press, 1986.


7. TÉCNICAS CLÁSICAS DE CONTROL

7.1. Planteamiento del problema

El objetivo de todo sistema de control consiste en que dado un cierto siste-


ma, del que se dispone de una cierta cantidad de información en base a una serie
de medidas de algunas de las señales del mismo, tratar de determinar unas ciertas
entradas de control factibles de forma que la variable del sistema que se desea con-
trolar siga de forma lo más exacta posible a una cierta señal de referencia, a pesar
de la influencia que las posibles perturbaciones, errores de medida y variaciones en
la carga del sistema.
Un esquema muy general de control del proceso G p es el que se muestra en la
figura 7.1.
r u y
+
Gf Gp
-

Gc

Fig. 7.1: Diagrama de bloques de un esquema general de control

En este esquema, la señal de control es

U (s) = G f (s)R(s) − G c (s)Y (s) (7.1.1)


Se puede apreciar una parte formada por un controlador G c situado en la realimen-
tación y un filtro G f en la entrada del sistema. Este esquema de control tiene como
función de transferencia conjunta de todo el sistema la siguiente expresión

Y (s) G p (s)
= G f (s) . (7.1.2)
R(s) 1 + G p (s)G c (s)

En esta expresión se puede observar que el término de filtrado G f afecta de forma


directa a la ganancia en régimen permanente del sistema realimentado así como a
276 7. Técnicas clásicas de control

los polos y ceros del mismo al estar situada en la cadena principal antes del lazo de
realimentación. Sin embargo, no altera las posiciones de los polos y ceros del lazo
de realimentación, salvo en el caso de que se produzcan cancelaciones polo-cero
entre G f y la función de transferencia del lazo de realimentación.
Por otra parte el término G c al estar situado en el lazo de realimentación afecta
de forma significativa a las posiciones de los polos del sistema en bucle cerrado,
alterando de forma importante la dinámica del sistema. Simplificando un poco,
podríamos pensar que mientras que con el diseño de G f buscamos ajustar o me-
jorar la respuesta en régimen permanente del sistema, con G c se busca ajustar la
respuesta transitoria.
Esta estructura de control se utilizará de forma extensiva en el control por rea-
limentación de estado que se estudiará en el próximo capítulo. Un caso particular
de esta estructura de control es cuando G f = G c . En este caso se pierde libertad
en el diseño ya que sólo se dispone de una función de transferencia. De esta forma,
el esquema de control se simplifica tal y como se puede apreciar en el esquema (a)
de la figura 7.2, pudiéndose expresar también por medio del esquema equivalente
(b) de dicha figura.

r u y
+
Gc Gp
-
(a)
Gc

r e u y
+ Gp
Gc
-
(b)

Fig. 7.2: Controlador en el lazo principal

Este esquema equivalente (b) es el que podríamos denominar esquema clási-


co de control, al menos académicamente. Dentro de este grupo de controladores
podemos incluir el control PID, que es el que estudiaremos en este capítulo.

7.2. Diseño de controladores clásicos

Dentro de los controladores que responden al esquema de control clásico pode-


mos distinguir dos enfoques básicos a la hora de abordar el diseño del controlador
7.3. Especificaciones 277

G c . Estos dos enfoques se diferencian fundamentalmente en la forma de definir la


función de transferencia del controlador.

1. Controlador con estructura fija. Este grupo de técnicas se caracteriza por


utilizar una función de transferencia definida a priori. Dentro de este grupo
se incluye el denominado control PID. En este tipo de controladores la fun-
ción de transferencia del controlador es fija y en él están presentes: acciones
de control proporcionales al error (acción P), acciones de control proporcio-
nales a la integral del error (acción I) y acciones de control proporcionales a
la derivada del error (acción D).
El peso que se le da a cada una de las acciones de control se puede determinar
de forma teórica (en el caso de que se conozca la función de transferencia
del proceso) o de forma empírica en el caso de que no se conozca dicha
función de transferencia. Evidentemente puede ocurrir que uno o varios de
los parámetros del controlador anulen alguna de las acciones de control si
éstas no fuesen necesarias.

2. Controlador con estructura variable. Este segundo grupo de controlado-


res no presenta una estructura de función de transferencia predefinida, sino
que ésta se obtiene como resultado de las especificaciones deseadas para el
sistema y de la función de transferencia del proceso a controlar. Este es el
caso del diseño de controladores mediante la técnica de síntesis directa.

7.3. Especificaciones

Las especificaciones expresan las características que se desean alcanzar en el


sistema cuando se introduce un cierto controlador en el mismo. Pueden expresarse
de diferentes formas utilizando para ello el dominio de la frecuencia o el dominio
del tiempo. En nuestro caso vamos a referirnos a especificaciones en el dominio
del tiempo.
Las especificaciones respecto a la respuesta en el dominio del tiempo de un
sistema se suelen definir con respecto a la respuesta temporal ante una entrada
en escalón de un sistema de segundo orden. Para ello se toma como sistema de
referencia un sistema con función de transferencia teórica:

K ωn2
G(s) = (7.3.1)
s 2 + 2ξ ωn s + ωn2

cuya respuesta a un escalón es

1 p
y(t) = 1 − p e−ξ ωn t sin(ωn t 1 − ξ 2 + φ) (7.3.2)
1 − ξ2
278 7. Técnicas clásicas de control

con p
1 − ξ2
φ = arctan (7.3.3)
ξ
Este sistema tiene sus polos situados en
p
p1,2 = −ξ ωn ± jωn 1 − ξ 2 (7.3.4)

donde ξ es la llamada tasa de amortiguamiento y ωn es la frecuencia natural no


amortiguada del sistema. Para un sistema con tasa de amortiguamiento 0 < ξ ≤ 1,
(sistema subamortiguado) la curva de respuesta del sistema tiene la forma mostrada
en la figura 7.3

y To
d·Mp
Mp
ep

Tp t
Ts

Fig. 7.3: Parámetros de la respuesta temporal

Entre los parámetros que se pueden utilizar para especificar la respuesta tene-
mos los siguientes:

Tiempo de pico,
π
Tp = (7.3.5)
ωd
p
donde ωd es la frecuencia amortiguada ωd = ωn 1 − ξ 2 .

Tasa de decaimiento, d.
ξ
−2π √
d=e 1−ξ 2 (7.3.6)

Periodo de la oscilación amortiguada, To .



To = p (7.3.7)
ωn 1 − ξ 2

Sobreoscilación, M p .
−π √ ξ √
Mp = e 1−ξ 2 = d (7.3.8)
7.4. Control PID 279

Tiempo de establecimiento, Ts .
π
Ts ' (7.3.9)
ξ ωn

Por último, se define el error de posición en régimen permanente, e p , como


la diferencia entre en valor la referencia deseada y el valor de salida de la varia-
ble controlada del sistema (estamos suponiendo por simplicidad que la señal de
realimentación es unitaria).
Es relativamente fácil obtener, a partir de unas ciertas especificaciones, las po-
siciones que deben de tener los polos en cadena cerrada del sistema que cumplen
dichas especificaciones.

7.4. Control PID

Los controladores del tipo PID son con mucha diferencia los más frecuente-
mente utilizados en la industria de control de procesos, donde más del 95 % de los
lazos de control utilizan controladores PID. Su sencillez, versatilidad y capacidad
para resolver los problemas básicos que se presentan en los procesos con dinámica
favorable y requisitos de funcionamiento modestos hacen de ellos una herramienta
imprescindible en el control de procesos.
A lo largo de las últimas décadas los controladores PID han sobrevivido a di-
ferentes cambios tecnológicos que van desde los primeros controladores desarro-
llados a partir de elementos neumáticos hasta los desarrollados con microprocesa-
dores pasando por las válvulas electrónicas, los dispositivos analógicos, los tran-
sistores y los circuitos integrados. La incorporación de los microprocesadores ha
tenido un impacto muy grande ya que ha permitido que los controladores PID se
enriquezcan en funciones colaterales sin perder ninguna de sus propiedades, así se
les han añadido posibilidades de ajuste automático de los parámetros, posibilidades
de ejecución de reglas lógicas o automatismos secuenciales.
Por todo ello, y aunque existen técnicas de control más sofisticadas, en el nivel
más bajo de control de muchos procesos sigue estando presente o incluso es el
mayoritario. En las próximas páginas nos referiremos a él.

7.4.1. Estructura básica de un controlador PID


La versión académica de este controlador viene caracterizada por una ley de
control de la forma:
 Z 
1 t de(t)
u(t) = K e(t) + e(τ )dτ + Td (7.4.1)
Ti 0 dt
donde u(t) es la variable de control y e(t) es el error expresado como e(t) =
r (t) − y(t) (fig 7.2b). La expresión 7.4.1 muestra los tres tipos de acciones de
280 7. Técnicas clásicas de control

control: la acción proporcional con peso K , la acción integral con peso TKi y la
acción derivativa con peso K Td .
Para ajustar el comportamiento del controlador se dispone de tres parámetros:
la ganancia proporcional K , el tiempo integral Ti y el tiempo derivativo Td . Se pue-
de observar que si el tiempo integral se hace infinito, la acción integral desaparece
y que si el tiempo derivativo se hace cero desaparece la acción derivativa.
La función de transferencia del controlador PID es la siguiente

U (s) 1 K (1 + sTi + s 2 Ti Td )
= K [1 + + Td s] = (7.4.2)
E(s) Ti s sTi

En este controlador el ajuste busca determinar las posiciones de los dos ceros
de la función de transferencia y de la ganancia estática del mismo, para que se
cumplan lo mejor posible las especificaciones de diseño deseadas en el sistema.
La ecuación 7.4.2 no es físicamente realizable, por lo que se denomina regu-
lador PID teórico. Para que un PID sea físicamente realizable habrá que añadir a
la acción derivativa un polo, con una influencia limitada. Un regulador PID real
tendrá la forma
1 + sTi + s 2 Ti Td
G c (s) = K (7.4.3)
(1 + sTi )(1 + sTd )
El ajuste de los parámetros del regulador se puede hacer de dos formas:

1. Empíricamente. Para lo que se ajusta de forma experimental los valores


hasta alcanzar la respuesta deseada. Este sistema puede ser excesivamente
lento en muchos sistemas, sobre todo si el tiempo de respuesta de estos es
grande.
Para evitar este problema, se utilizan los métodos de Ziegler-Nichols que en
base a unas medidas muy simples observadas en la respuesta del sistema dan
unos valores teóricos de los parámetros del controlador. Valores que se toman
como referencia y posteriormente se hace un ajuste más fino a partir de ellos.
Estos métodos y otros derivados de ellos se utilizan considerablemente en la
industria, tanto para ajuste puramente manual como en controladores PID
industriales con sistemas de autoajuste.

2. Teóricamente. Para lo que se determinan de forma analítica los valores del


regulador. Se requiere el conocimiento expreso de la función de transferencia
del proceso.

7.4.2. Métodos de Ziegler - Nichols


Los métodos de Ziegler - Nichols son dos métodos clásicos de ajuste empírico
de los parámetros de un controlador PID. Fueron presentados por dichos autores
7.4. Control PID 281

en 1942. Estos métodos son aún ampliamente utilizados, bien en su forma original
o con versiones mejoradas.
Ambos métodos se basan en la determinación de algunas características de la
respuesta del proceso, temporal o frecuencial, para determinar a partir de dichas
características y por medio de unas relaciones matemáticas muy simples los pará-
metros del controlador que da una respuesta con tasa de decaimiento de un cuarto
entre los valores de la primera y la segunda sobreoscilación.

Método de la respuesta a un escalón

Este primer método se basa en la observación de la respuesta en bucle abierto


del sistema ante una entrada en escalón. Observando dicha respuesta, se determinan
dos parámetros que se obtienen de la siguiente forma:

1. Se determina el punto de máxima pendiente en la curva de respuesta a un


escalón, y en dicho punto se dibuja la tangente a la curva de respuesta en
dicho punto.

2. Se determina la intersección de la tangente obtenida anteriormente con los


ejes de coordenadas, y se obtienen las distancias a y L. Estos dos parámetros
corresponden a la respuesta teórica de un modelo matemático de la forma

a −s L
G(s) = e (7.4.4)
sL

que corresponde a un integrador con retardo temporal. Este sistema permite


ser caracterizado por dos parámetros a y L tal y como se puede observar en
la siguiente figura 7.4.

L t
a

a −s L
Fig. 7.4: Respuesta ante entrada escalón de G(s) = sL
e
282 7. Técnicas clásicas de control

Controlador K Ti Td
P 1/a
PI 0.9/a 3L
PID 1.2/a 2L L/2

Tab. 7.1: Valores de los parámetros propuestos por Ziegler-Nichols para el método
de respuesta a un escalón

3. Una vez que se han determinado los parámetros a y L en la respuesta, Ziegler


y Nichols proponen como parámetros del controlador PID los indicados en
la tabla 7.1 obtenidos directamente como función de los parámetros a y L
medidos sobre la respuesta del sistema.

Este controlador está diseñado para dar una tasa de decaimiento de un cuarto
(d=0.25) entre las magnitudes de la primera y la segunda sobreoscilación, por lo
que generalmente presenta una sobreoscilación alta. Tiene la ventaja de que a partir
de estos valores es fácil realizar un ajuste más fino para adecuarlos a la respuesta
que se desea sin la necesidad de un largo proceso de prueba y error.

Método de la respuesta frecuencial


Este segundo método desarrollado por Ziegler y Nichols se basa en determinar
el punto de la curva de Nyquist, para la función de transferencia G(s), en el que
dicha curva interseca el eje real negativo (punto de estabilidad relativa). Una vez
obtenido este punto, se caracteriza por medio de dos parámetros denominados:
ganancia crítica K u y periodo crítico Tu .
Este método se fundamenta en la observación de que muchos sistemas se hacen
inestables cuando se hace un control proporcional con ganancia elevada.
El método de determinación de los parámetros del regulador PID en los si-
guientes pasos:

1. Se cierra el bucle de realimentación con un regulador de tipo proporcional


(figura 7.5a). Se va aumentando la ganancia del regulador proporcional hasta
que se obtiene la ganancia crítica K u en la que se presenta una respuesta osci-
latoria como la indicada en la figura 7.5. Para esta ganancia K u , se determina
el periodo crítico Tu de la señal de salida oscilatoria.

2. Como en el primer método, se determinan a partir de K u y Tu los valores de


los parámetros del controlador. Los valores propuestos por Ziegler y Nichols
se muestran en la tabla 7.2.
7.4. Control PID 283

r + e u y
K G(s) a)
-

y
K<Ku b)

y
K=Ku, Tu c)

y
K>Ku d)

Fig. 7.5: Obtención de la ganancia crítica y del periodo crítico para el segundo
método de Ziegler-Nichols

Al igual que en el método anterior el criterio de diseño de los reguladores es


conseguir una tasa de decaimiento de un cuarto. Estos reguladores dan buena res-
puesta ante variaciones en la carga del sistema, aunque como contrapartida suelen
presentar una sobreoscilación alta, como ya se ha comentado anteriormente. En
cualquier caso, es fácil realizar un ajuste posterior del regulador partiendo de estos
parámetros.
284 7. Técnicas clásicas de control

Controlador K Ti Td
P 0.5K u
PI 0.4K u 0.8Tu
PID 0.6K u 0.5Tu 0.125Tu

Tab. 7.2: Valores de los parámetros propuestos por Ziegler-Nichols para el método
frecuencial

7.5. Métodos analíticos de diseño de controladores PID

Estos métodos buscan determinar de forma analítica los valores más adecuados
de los parámetros de un controlador PID de forma que se cumplan unas especifi-
caciones determinadas. Veremos dos técnicas analíticas para realizar el cálculo de
estos parámetros: la primera de estas técnicas (asignación de polos) es aplicable
a sistemas de segundo orden, y la segunda (diseño basado en los polos dominan-
tes) es aplicable a sistemas complejos. Ambas técnicas requieren un conocimiento
previo de la función de transferencia del proceso que se desea controlar.

7.5.1. Método de asignación de polos


La técnica de asignación de polos trata de encontrar los parámetros de un con-
trolador tal que la función de transferencia en cadena cerrada tenga unos polos
predeterminados. Los polos en bucle cerrado se determinan de forma que se obten-
gan unas ciertas especificaciones en la respuesta del sistema. En términos generales
un regulador de tipo P al tener un único parámetro sólo nos permitiría asignar un
polo, un regulador PI o uno PD que tienen dos parámetros nos permitirán asignar
dos polos y un regulador PID que tiene tres parámetros nos permitiría asignar tres
polos. La utilización de uno u otro tipo de regulador dependerá de la función de
transferencia del sistema.
Supongamos en primer lugar un proceso cuya función de transferencia es de
primer orden, con la siguiente parametrización

Kp
G p (s) = (7.5.1)
1 + sT

y supongamos que queremos controlar el sistema por medio de un controlador de


tipo PI, que responde a la siguiente expresión
 
1
G c (s) = K 1 + (7.5.2)
1 + sTi
7.5. Métodos analíticos de diseño de controladores PID 285

el sistema en bucle cerrado tiene la siguiente función de transferencia

G p (s)G c (s)
G(s) = (7.5.3)
1 + G p (s)G c (s)

La ecuación característica del sistema en bucle cerrado definido por la ecuación


7.5.3 es la siguiente
1 + G p (s)G c (s) = 0 (7.5.4)
y sustituyendo en 7.5.4 G p (s) y G c (s) por las expresiones 7.5.1 y 7.5.2 obtenemos
que

 
1 Kp
1+K 1+ = 0
sTi (1 + sT )
 
2 1 + KpK KpK
s +s + = 0 (7.5.5)
T T Ti

Supongamos que se desea que la respuesta del sistema en bucle cerrado sea
la de un sistema de segundo orden con una tasa de amortiguamiento ξ y con una
frecuencia ωn . Es decir, se deseanp
situar los polos en cadena cerrada del sistema en
las posiciones p1,2 = −ξ ωn ± ωn 1 − ξ 2 . Por lo que la ecuación característica en
bucle cerrado tendrá la expresión

s 2 + 2ξ ωn s + ωn2 = 0 (7.5.6)

Igualando las expresiones 7.5.5 y 7.5.6 obtenemos que

1 + KpK
2ξ ωn = (7.5.7)
T
KpK
ωn2 = (7.5.8)
T Ti
y despejando en 7.5.7 y 7.5.8 tenemos que

2ξ ωn T − 1
K = (7.5.9)
Kp
2ξ ωn T − 1
Ti = (7.5.10)
ωn2 T

Esta técnica requiere introducir un controlador en el que tengamos dos posibles


parámetros de ajuste, un controlador PI, cuando el sistema en cadena abierta sea
de primer orden ya que es necesario fijar arbitrariamente las posiciones de dos
polos en cadena cerrada. De forma análoga, cuando el sistema es de segundo orden
será conveniente por lo general utilizar un controlador PID que tiene tres grados
286 7. Técnicas clásicas de control

de libertad para poder fijar arbitrariamente los tres polos que tendrá el sistema en
bucle cerrado.
Sea la función de transferencia del sistema de segundo orden de la forma

Kp
G p (s) = (7.5.11)
(1 + sT1 )(1 + sT2 )
y supongamos que queremos controlar el sistema por medio de un controlador de
tipo PID, que responde a la siguiente expresión

(1 + sTi + s 2 Ti Td )
G c (s) = K (7.5.12)
sTi

con lo que la ecuación característica del sistema en bucle cerrado 1+G p (s)G c (s) =
0, será
   
3 2 1 1 K p K Td 1 KpK KpK
s +s + + +s + + = 0 (7.5.13)
Ti T2 T1 T2 T1 T2 T1 T2 T1 T2

Si deseamos que el sistema tenga en bucle cerrado la siguiente ecuación carac-


terística,

(s + α)(s 2 + 2ξ ωn s + ωn2 ) = 0 (7.5.14)


igualando los coeficientes de los polinomios de las expresiones 7.5.13 y 7.5.14
tenemos las siguientes expresiones

KpK
ωn2 α = (7.5.15)
TT
1 2 
2 1 KpK
ωn + 2ξ ωn α = + (7.5.16)
T1 T2 T1 T2
 
1 1 K p K Td
2ξ ωn + α = + + (7.5.17)
Ti T2 T1 T2

y resolviendo este sistema de ecuaciones obtenemos

T1 T2 (2ξ ωn + α) + 1
K = (7.5.18)
Kp
KpK
Ti = (7.5.19)
T1 T2 ωn2 α
T1 T2 ωn3 α(ωn + 2ξ α)
Td = (7.5.20)
T1 T2 (2ξ ωn + α) − 1 + T1 ωn2 α(ωn2 α + 1)
7.5. Métodos analíticos de diseño de controladores PID 287

Ejemplo 7.5.1: Supongamos que se desea controlar un sistema cuya función de


1
transferencia es G p (s) = s(s+2) de forma que en bucle cerrado tenga una tasa de
amortiguamiento ξ = 0.5 y una frecuencia ωn = 3.14 rad s
.
Para controlar este sistema nos basta con un regulador de tipo PD con función
de transferencia de la forma

G c (s) = K (1 + Td s) (7.5.21)
ya que el sistema aunque es de segundo orden tiene un polo en el origen en la
función de transferencia, por lo que el sistema no requiere añadir un efecto inte-
gral en el controlador para anular el error de posición en régimen permanente. Al
no incluir efecto integral en el regulador el sistema en cadena cerrada tendrá una
ecuación característica de orden 2. El sistema en bucle cerrado tiene una ecuación
característica de la forma

1
1 + K (1 + Td s) =0 (7.5.22)
s(s + 2)
y se desea que tenga la ecuación característica 7.5.6 en bucle cerrado. Para ello
igualamos 7.5.6 a 7.5.22,

s 2 + s(2 + K Td ) + K = s 2 + 2ξ ωn s + ωn2 = 0 (7.5.23)


e igualando los coeficientes de ambos polinomios tenemos que

K = ωn2 (7.5.24)
2ξ ωn − 2
Td = (7.5.25)
ωn2

y sustituyendo por los valores de las especificaciones que se han indicado tenemos
que K = 9.86 y Td = 0.115. Con lo que el regulador resultante tiene la expresión:

G c (s) = 9.86(1 + 0.115s) (7.5.26)

7.5.2. Diseño basado en los polos dominantes


La técnica de asignación de polos trata de ubicar las posiciones de todos los
polos en cadena cerrada del sistema. Esto complica considerablemente el método
para el caso de sistemas complejos, pudiendo incluso no tener ninguna solución
factible el problema. Con lo que, si se quiere controlar con un PID un cierto sistema
por medio de esta técnica, los sistemas deben restringirse a los de primer y segundo
orden para que esta técnica nos asegure la existencia de una solución.
288 7. Técnicas clásicas de control

2.5

y(t)
2

(a)
1.5

1
(b)

0.5

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t

Fig. 7.6: Respuesta del sistema del ejemplo 7.5.1: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

Si el sistema es complejo, o bien se busca una aproximación del modelo a un


primer o segundo orden o bien se utiliza la técnica de diseño basada en los polos
dominantes. Esta técnica trata de asignar sólo unos pocos polos del sistema. Esto
permite diseñar controladores simples para controlar sistemas complejos, aunque
el comportamiento del regulador al instalarlo en el sistema no nos dará de forma
exacta las especificaciones que deseamos ya que se ignora en el diseño el efecto
de algunos polos. Sin embargo, si la elección de las posiciones es adecuada el
comportamiento estará muy próximo a lo que se desea.
Esta técnica requiere también que se conozca la función de transferencia del
sistema, y la idea de asignar sólo unos pocos polos del sistema en bucle cerrado ha
sido muy extensamente utilizada en los primeros diseños de control PID, especial-
mente cuando la potencia de los ordenadores no permitía otras posibilidades.
Aún hoy, esta técnica tiene un considerable interés ya que una buena parte de
los controladores industriales implementan una estructura fija de PID y se utilizan
para procesos de complejidad muy variable por lo que resulta necesaria cuando
estos son de complejidad alta.
Esta asignación basada en los polos dominantes puede realizarse de dos formas:
o bien determinando algebraicamente los valores de los parámetros del regulador
que sitúan los polos dominantes en las posiciones deseadas o bien mediante el uso
del lugar de las raíces. Ambas técnicas nos permiten obtener analíticamente los
parámetros de los reguladores PID.
7.5. Métodos analíticos de diseño de controladores PID 289

Determinación algebraica
El problema es similar al de la sección anterior. Si se introduce un regulador P,
necesitamos situar un polo para poder determinar el parámetro del regulador. Si se
desea introducir un regulador PI o PD es necesario asignar dos polos para calcular
los parámetros del regulador y si se introduce un regulador PID es necesario fijar
tres polos.
Supongamos, para ilustrar el funcionamiento de esta técnica, que se desea di-
señar un regulador de tipo PI para controlar un sistema. Dicho regulador tiene dos
parámetros por lo que para determinar el valor de los mismos necesitamos situar la
posición de dos polos del sistema en bucle cerrado.
Supongamos que la ecuación del controlador es de la forma
 
1
G c (s) = K 1 + (7.5.27)
1 + sTi
el sistema en bucle cerrado tiene la siguiente función de transferencia

G p (s)G c (s)
G(s) = (7.5.28)
1 + G p (s)G c (s)

con lo que la ecuación característica del sistema en bucle cerrado viene definida
por  
1
1 + G p (s)K 1 + =0 (7.5.29)
1 + sTi
Necesitamos fijar las posiciones de dos polos p1,2 , por lo que podemos suponer
que estos son complejos conjugados de forma que tengan un cierto amortiguamien-
to ξ y una cierta frecuencia ωn , es decir
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) (7.5.30)
En el caso de que el controlador que se necesita sea de tipo PD estamos en una
situación similar, pues hemos de determinar dos parámetros del regulador, cuya
función de transferencia es

G c (s) = K (1 + sTd ) (7.5.31)


Si lo que se desea es diseñar un regulador de tipo PID para controlar un sistema.
Dicho regulador tiene tres parámetros por lo que para determinar el valor de los
mismos necesitamos situar la posición de tres polos del sistema en bucle cerrado.
Supongamos que la ecuación del controlador es de la forma
 
1
G c (s) = K 1 + + sTd (7.5.32)
1 + sTi
290 7. Técnicas clásicas de control

el sistema en bucle cerrado tiene la siguiente función de transferencia

G p (s)G c (s)
G(s) = (7.5.33)
1 + G p (s)G c (s)

con lo que la ecuación característica del sistema en bucle cerrado viene definida
por  
1
1 + G p (s)K 1 + + sTd = 0 (7.5.34)
1 + sTi
Necesitamos fijar las posiciones de tres polos p1,2,3 , por lo que podemos su-
poner que dos de estos son complejos conjugados de forma que tengan un cierto
amortiguamiento ξ y una cierta frecuencia ωn , y el otro es un polo situado en −α
es decir

p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) (7.5.35)
p3 = −α (7.5.36)

La determinación de los valores de los parámetros del controlador PID se haría


de forma análoga a lo visto para los controladores con dos parámetros.

Ejemplo 7.5.2: Sea el sistema mostrado en la figura 7.7, cuya función de trans-
ferencia es
1
G p (s) = (7.5.37)
s(s + 2)(s + 8)
y supongamos que queremos introducir un controlador en el sistema de forma
r +
e

G c ( s ) u y

+ 2 + 8

s ( s ) ( s )

Fig. 7.7: Sistema del ejemplo 7.5.2

que el sistema tenga una tasa de amortiguamiento ξ = 0.5 y una ωn = 3.14. Si


buscamos fijar sólo los polos dominantes, con estas especificaciones tendríamos
que dichos polos deberían estar en
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) = −1.57 ± j2.72 (7.5.38)
Dado que el sistema es de tipo 1, con lo que incluye un integrador en cadena
abierta, introduciremos un regulador de tipo PD en el sistema K (s + a). Obtenga-
mos en primer lugar la ecuación característica del sistema en bucle cerrado
7.5. Métodos analíticos de diseño de controladores PID 291

1
1 + K (s + a) = s 3 + 10s 2 + (16 + K )s + K a = 0 (7.5.39)
s(s + 2)(s + 8)
por otra parte, queremos fijar las posiciones de dos de los polos en las posiciones
7.5.38. Como el sistema es de tercer orden el tercer polo estará en una posición
(s + b) con lo que la ecuación característica en bucle cerrado tendrá el aspecto
siguiente

(s +b)(s 2 +2ξ ωn s +ωn2 ) = s 3 +(2ξ ωn +b)s 2 +(2ξ ωn b+ωn2 )s +ωn2 b = 0 (7.5.40)

Al igualar las ecuaciones características 7.5.39 y 7.5.40 obtenemos las ecua-


ciones siguientes

10 = 2ξ ωn + b
16 + K = 2ξ ωn b + ωn2 (7.5.41)
Ka = ωn2 b

y despejando en 7.5.41 tenemos que:

b = 10 − 2ξ ωn = 6.86
K = 2ξ ωn b + ωn2 − 16 = 15.4 (7.5.42)
ωn2 b
a = = 4.392
K
con lo que el regulador PD que sitúa los polos dominantes en las posiciones desea-
das en cadena cerrada es

G c (s) = 15.4(s + 4.392) (7.5.43)


Nótese que la posición del tercer polo en b = 6.86 está muy alejada de los
polos dominantes, por lo que su influencia es muy pequeña.

Determinación basada en el lugar de las raíces


El método del lugar de las raíces, introducido por Evans en 1954, es un método
gráfico para determinar las posiciones de los polos en cadena cerrada del sistema
a partir de las posiciones de los polos y los ceros del sistema en cadena abierta a
medida que alguno de los parámetros (típicamente la ganancia) varía desde cero
hasta infinito.
292 7. Técnicas clásicas de control

1.4

1.2
y(t)
(b)
1

0.8

0.6

0.4
(a)
0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t (s)

Fig. 7.8: Respuesta del sistema del ejemplo 7.5.2: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

En la práctica, el dibujo del lugar de las raíces de un cierto sistema nos puede
indicar si será suficiente variar la ganancia del sistema para alcanzar las especifi-
caciones que nos han dado. Es decir, en el caso de que el lugar de las raíces pase
por las posiciones deseadas para los polos en cadena cerrada bastará con ajustar
al valor adecuado la ganancia del sistema para cumplir con las especificaciones
de respuesta transitoria exigidas. Si esto no ocurre, será necesario introducir en el
sistema un controlador que modifique el lugar de las raíces en la forma adecuada.
Si recordamos el efecto que tenían la adición de polos y ceros al sistema, es
relativamente simple determinar que tipo de estructura deberá tener el controlador
que introduzcamos en el sistema.

Efecto de la adición de polos. La adición de un polo a la función de trans-


ferencia en bucle abierto de un sistema tiene como efecto el añadir una ra-
ma más en el lugar de las raíces y como consecuencia las ramas tienden a
acercarse o incluso introducirse en el semiplano real positivo. Esto tiende a
disminuir la estabilidad relativa del sistema y hace que el tiempo de estable-
cimiento de la respuesta sea mayor.
Este efecto se puede apreciar en la figura 7.9, donde a medida que se añaden
polos aumenta el número de ramas y éstas están cada vez más cerca del
semiplano con parte real positiva. Llegando en el caso (c), al introducirse
las ramas en el la parte real positiva, para valores altos de la ganancia a
inestabilizarse el sistema.
7.5. Métodos analíticos de diseño de controladores PID 293

j w
j w j w

x
x x x x x

̌ 0

̌ 0

( a )
( b ) ( c )

Fig. 7.9: Efecto de la adición de un polo sobre el lugar de las raíces

Efecto de la adición de ceros. La adición de un cero a la función de transfe-


rencia en cadena abierta disminuye el número de ramas que se van al infinito
por lo que aumenta la estabilidad relativa del sistema al desplazarse las ramas
hacia la parte real negativa del plano complejo. Hace al sistema más rápido
en su respuesta al introducir un efecto derivativo que anticipa la evolución
del sistema.
j w
j w
j w

x x x 0

̈ x

̈ x x 0
x x

̈ x 0

̌ ̌ ̌

( a )
( b )
( c )

Fig. 7.10: Efecto de la adición de un cero sobre el lugar de las raíces

Este efecto se puede apreciar en la figura 7.10, donde al añadir un cero a


un sistema con tres polos como el mostrado en 7.9c sólo dos ramas se van al
infinito y ninguna de ellas entra en la parte real positiva, por lo que el sistema
no se inestabilizaría para ningún valor de la ganancia.

Ejemplo 7.5.3: Para el sistema de la figura 7.7 se puede observar que si se intro-
duce un regulador proporcional y se varía el valor de la ganancia K

1 + K G p (s) = 0 (7.5.44)
294 7. Técnicas clásicas de control

los polos de la ecuación característica del sistema se mueven por las ramas del
lugar de las raíces, que para este sistema tendría un aspecto como el indicado en la
figura 7.11. Si observamos las posiciones de los polos dominantes Pd del sistema se
puede apreciar que el lugar de las raíces no pasa por ellos, por lo que no basta con
un regulador proporcional. Si deseamos que el lugar de las raíces pase por dichos
puntos y que estos sean los polos dominantes en cadena cerrada del sistema, nos
basta con introducir un regulador de tipo PD. Este regulador al introducir un cero,
si se elige la posición del mismo adecuadamente, puede hacer pasar el lugar de las
raíces por las posiciones deseadas.

Pd
ωn
θ
x x x
-8 -2 0

P'd

Fig. 7.11: Lugar de las raíces para el sistema del ejemplo 7.5.3

En este caso, es necesario determinar en que posición se introducirá el cero


y el valor de la ganancia para que los polos se sitúen exactamente en los puntos
deseados. Recordando que el lugar de las raíces era el lugar geométrico de los
puntos que verificaban la ecuación característica del sistema en bucle cerrado 1 +
G(s) = 0, y que esta ecuación daba lugar a los criterios del modulo y argumento

|G(s)| = 1 (7.5.45)
6 G(s) = (2q + 1)π q = 0, ±1, ±2, . . . (K > 0) (7.5.46)

si la función de transferencia G(s) tiene la forma

(s + z 1 )(s + z 2 ) . . . (s + z m )
G(s) = K (7.5.47)
(s + p1 )(s + p2 ) . . . (s + pn )

donde n ≥ m las expresiones 7.5.45 y 7.5.46 quedarán de la siguiente forma


Qm
|s + z i |
|G(s)| = |K | ni=1
Q =1 (7.5.48)
j=1 |s + pj|
7.5. Métodos analíticos de diseño de controladores PID 295

o lo que es lo mismo
Qn Qn
j=1 |s + p j | j=1 distancias desde p j a Pd
|K | = Qm = Qm (7.5.49)
i=1 |s + z i | i=1 distancias desde z i a Pd
y

X
m X
n
6 G(s) = 6 K + 6 (s + z i ) − 6 (s + p j ) = (2q + 1)π (7.5.50)
i=1 j=1

o lo que es lo mismo
X
m
−−→ X 6 −−→
n
6 K+ 6 z i Pd − p j Pd = (2q + 1)π (7.5.51)
i=1 j=1

En nuestro caso, dadas las posiciones de los polos del proceso y del regulador,
tendremos que si queremos que el lugar de las raíces pase por las posiciones
p
p1,2 = ωn (−ξ ± j 1 − ξ 2 ) = −1.57 ± j2.72 (7.5.52)
deben de cumplirse los criterios del módulo 7.5.48 y del argumento 7.5.50. Los
argumentos para los polos cuyas posiciones conocemos son (fig 7.12):
β1 = 120o (7.5.53)
2.72
β2 = arctan = 81.01o (7.5.54)
2 − 1.57
2.72
β3 = arctan = 22.93o (7.5.55)
8 − 1.57
como debe de cumplirse el criterio del argumento
180o = α1 − (β1 + β2 + β3 ) (7.5.56)
y despejando α1 = 43.93o . Conociendo este ángulo podemos determinar la posi-
ción donde debe de estar situado el cero para que forme dicho ángulo con el punto
donde está situado el polo dominante −1.57 + j2.72. El resultado es que dicho
cero está situado en a = 4, 39. Para determinar la ganancia K aplicamos el criterio
del módulo
n1n2n3
K = (7.5.57)
m1
y sustituyendo por los valores de n 1 , n 2 , n 3 , m 1 obtenemos que K = 15.4. Con lo
que el regulador PD que sitúa los polos dominantes en las posiciones deseadas en
cadena cerrada es
G c (s) = 15.4(s + 4.39) (7.5.58)
Como se puede apreciar los valores que se han obtenido por ambos métodos
son similares (Fig.7.13).
296 7. Técnicas clásicas de control

Pd
j2.72
ωn=n
1
n3 m1 n2
β3 α1 β2 θ β1
x x x
-8 -a -2 0

Fig. 7.12: Aplicación del criterio del módulo y del argumento para el ejemplo 7.5.3

1.4

1.2
y(t) (b)
1

0.8

0.6

0.4
(a)
0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
t (s)

Fig. 7.13: Respuesta del sistema del ejemplo 7.5.3: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

7.5.3. Discretización de un controlador PID

Con lo visto hasta este momento sería factible dadas unas ciertas especifica-
ciones diseñar un regulador continuo para un cierto proceso. La mayoría de los
procesos industriales son de naturaleza continua por lo que resulta natural dise-
ñar el controlador en tiempo continuo. Sin embargo, hoy en día, la mayoría de los
controladores son de tipo discreto, por lo que resulta necesario discretizar el regu-
lador para poderlo implantar. Tal y como se ha visto, la ecuación diferencial de un
7.5. Métodos analíticos de diseño de controladores PID 297

controlador PID tenía la forma


Z t
1 de(t)
u(t) = K [e(t) + e(τ )dτ + Td ] (7.5.59)
Ti 0 dt
a la hora de discretizar esta expresión el término derivativo podemos sustituirlo por
la diferencia de primer orden y el término integral podríamos aproximarlo por el
primero de los métodos de Euler (aproximación rectangular hacia adelante). Esto
nos daría como resultado

T X
k−1
Td
u(k) = K [e(k) + e(i) + (e(k) − e(k − 1))] (7.5.60)
Ti i=0 T

para obtener una expresión recursiva que evite el sumatorio, se obtiene la expresión
para k − 1, que será

T X
k−2
Td
u(k − 1) = K [e(k − 1) + e(i) + (e(k − 1) − e(k − 2))] (7.5.61)
Ti i=0 T

y restando de la expresión 7.5.60 la expresión 7.5.61 obtenemos la expresión del


controlador PID discretizado
 
u(k) = u(k − 1) + q0 e(k) + q1 e(k − 1) + q2 e(k − 2) (7.5.62)

donde
 
Td
q0 = K 1 +
T
 
Td T
q1 = −K 1 + 2 − (7.5.63)
T Ti
Td
q2 = K
T
La función de transferencia en z queda de la forma
U (z) q0 + q1 z −1 + q2 z −2
G(z) = = (7.5.64)
E(z) 1 − z −1
Si se hubiese aproximado la integral mediante la aproximación trapezoidal, la
expresión de u(k) sería
" ! #
T e(0) + e(k) X
k−1
Td
u(k) = K e(k) + e(i) + (e(k) − e(k − 1)) (7.5.65)
Ti 2 i=1
T

y el controlador quedaría
 
u(k) = u(k − 1) + q0 e(k) + q1 e(k − 1) + q2 e(k − 2) (7.5.66)
298 7. Técnicas clásicas de control

donde
 
Td T
q0 = K 1+ +
T 2Ti
 
Td T
q1 = −K 1 + 2 − (7.5.67)
T 2Ti
Td
q2 = K
T
Ejemplo 7.5.4: Supongamos que se ha diseñado un controlador PID continuo
con parámetros K = 2, Td = 5 , Ti = 50 que se desea discretizar con un periodo
de muestreo de T = 1 segundos.
Utilizando la integración rectangular hacia adelante los parámetros que resultan
para el controlador son
 
Td
q0 = K 1 + = 12
T
 
Td T
q1 = −K 1 + 2 − = −21.96 (7.5.68)
T Ti
Td
q2 = K = 10
T
y si se utiliza la integración trapezoidal los parámetros serán:
 
Td T
q0 = K 1 + + = 12.02
T 2Ti
 
Td T
q1 = −K 1 + 2 − = −21.80 (7.5.69)
T 2Ti
Td
q2 = K = 10
T
Otra solución a la discretización de reguladores P I D es utilizar el teorema de los
residuos con un bloqueador de orden cero y un muestreador de periodo T
X  
−1 G(s) 1
G(z) = (1 − z ) Res (7.5.70)
Polos dentro de C
s 1 − e pT z −1

Uno de los métodos más extendidos de implementación del control por compu-
tador, se basa en el diseño del regulador continuo mediante técnicas clásicas en el
plano s para su posterior discretización utilizando el teorema de residuos. Nótese
que la implementación por computador implica la introducción de un muestreador
y de un bloqueador, generalmente de orden cero. La función de transferencia de
−sT
este bloqueador es 1−es , cuyo numerador equivalente en el plano z es (1 − z −1 ).
En los dos siguientes ejemplos se muestra el método indicado, con la particularidad
de aplicar en uno de ellos la discretización a un sistema con polos múltiples.
7.5. Métodos analíticos de diseño de controladores PID 299

Ejemplo 7.5.5: Se pretende efectuar un control por computador de un sistema


1
continuo con función de transferencia G(s) = s(s+2) , con las especificaciones tem-
porales de coeficiente de amortiguamiento ζ = 0.5 y tiempo de establecimiento
ts = 2 seg.

r e u 1 y
+ Gc(s)
- s(s+2)

Fig. 7.14: Sistema del ejemplo 7.5.5

De las especificaciones temporales se obtiene la posición de los polos domi-


nantes del sistema
ζ = cos(θ ) → θ = 60o
π
ts ≈ → σ = 1.57
σ
p1,2 = −1.57 ± j2.72

Como se observa en la figura 7.15, para alcanzar los polos dominantes hay que
introducir un regulador de tipo P D real con la función de transferencia G c (s) =
K s+a
s+b
. Para ajustar la posición del polo en −b, utilizaremos el método de cance-
lación del cero del regulador en −a con el polo del sistema en −2. Utilizando el

Pd
j2.72
ωn=n
1
n3 n2
β3 β2 θ β1
x x x
-b -a=-2 0

m1=n2
α1=β2

Fig. 7.15: Distribución de polos y ceros del ejemplo 7.5.5


300 7. Técnicas clásicas de control

criterio del argumento tenemos


X X
α− β = (2q + 1)π

α1 = 81o , β1 = 120o , β2 = 81o

α1 − β1 − β2 − β3 = (2q + 1)π

β3 = −(2q + 1)π − 120o = 60o

De esta forma la posición del polo del regulador b es −3.14. Para la determinación
de la ganancia utilizamos el criterio del módulo

n1n2n3 3.14 × 2.75 × 3.14


K = = = 9.86
m1 2.75

De esta forma el regulador continuo que cumple las especificaciones tiene la forma

s+2
G c (s) = 9.86
s + 3.14

Para discretizar este regulador tendremos que elegir en primer lugar el tiempo de
muestreo y posteriormente, discretizarlo. Para la elección del tiempo de muestreo
T utilizaremos el método empírico de 1/8 del periodo de la respuesta amortiguada
del sistema que es el doble del tiempo de pico T p (ver apartado siguiente).

2π 2π
To = p = √ = 2.31
ωn 1 − ζ 2 3.14 1 − 0.52

2.31
T = = 0.28 ≈ 0.2
8
El controlador discreto equivalente está representado en la figura 7.16. Para la
obtención de G c (z) utilizaremos el método de discretización basado en el teorema
de los residuos.

r e u(k) u(t) 1 y
+ Gc(z) B0
- s(s+2)

Fig. 7.16: Esquema de control por computador del ejemplo 7.5.5


7.5. Métodos analíticos de diseño de controladores PID 301

X  
−1 1 1
G c (z) = (1 − z ) R G c (s) =
s (1 − e pT z −1 )
X  s+2 1 1

−1
= (1 − z ) R 9.86 =
(s + 3.14) s (1 − e pT z −1 )
 
−1 2 1 1.14 1
= (1 − z )9.86 +
3.14 (1 − z −1 ) 3.14 (1 − e−3.14·0.2 z −1 )
 
−1 1 1
= (1 − z ) 6.277 + 3.578
(1 − z −1 ) (1 − 0.533z −1 )
(1 − z −1 ) z − 0.702
= 6.277 + 3.578 −1
= 9.855
(1 − 0.533z ) z − 0.533
En la figura 7.17 se representan las respuestas del sistema en bucle cerrado,
ante entrada escalón, con los reguladores continuo y discretizado. Como se puede
observar, ambas respuestas son muy semejantes, siendo la del regulador discreto
un poco más oscilatoria, debido a que el tiempo de muestreo elegido es el máxi-
mo posible. Si el tiempo de muestreo se reduce, la calidad de la respuesta mejora
significativamente. Si, por ejemplo, el tiempo de muestreo es T = 0.05 seg, el
regulador discreto tiene la forma
z − 0.9073
G c (z) = 9.86
z − 0.8547
cuya respuesta se puede observar en la figura 7.18.

1.4

b)
1.2

a)
0.8
y

0.6

0.4

0.2

0
0 1 2 3 4 5 6
tiempo

Fig. 7.17: Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los con-
troladores a) continuo y b) discretizado equivalente para T = 0.2
302 7. Técnicas clásicas de control

1.4

b)
1.2

a)
0.8
y

0.6

0.4

0.2

0
0 1 2 3 4 5 6
tiempo

Fig. 7.18: Resultados del sistema del ejemplo 7.5.5 en bucle cerrado con los con-
troladores a) continuo y b) discretizado equivalente para T = 0.05

Ejemplo 7.5.6: Para el sistema y el regulador del ejemplo anterior, supongamos


que también se quiere discretizar el sistema continuo a controlar con T = 0.2 seg.
Para ello, el bloqueador de orden cero (según la figura 7.16) cambia de posición
situándose en la salida del sistema. Entonces el método de discretización de los
residuos se aplicará al regulador y al sistema.

X  
−1 1 1
G c (z)G(z) = (1 − z ) R G c (s)G(s) =
s 1 − e pT z −1
X  
−1 1 1 1
= (1 − z ) R 9.86 =
s(s + 3.14) s 1 − e pT z −1
"  
−1 1 d 2 1 1
= 9.86(1 − z ) s 2
(2 − 1)! ds s (s + 3.14) (1 − e pT z −1 ) p=0

1 1
+ −3.14·0.2
(−3.14) 1 − e
2 z −1

Nótese que el residuo correspondiente al polo múltiple en s = 0 solamente


7.5. Métodos analíticos de diseño de controladores PID 303

contiene la fracción correspondiente al mayor grado s 2 .


" 
−1 −(1 − e pT z −1 + (s + 3.14)(−T )e pT z −1 )
G c (z)G(z) = 9.86(1 − z ) +
(s + 3.14)2 (1 − e pT z −1 )2 p=0

1 1
+ =
3.142 (1 − 0.533z −1 )
 
−1 (1.628z −1 − 1) 1
= (1 − z ) + =
(1 − z −1 )2 (1 − 0.533z −1 )
(1.628z −1 − 1)(1 − 0.533z −1 ) + (1 − z −1 )2
= =
(1 − z −1 )(1 − 0.533z −1 )
z + 0.8261
= 0.161
(z − 1)(z − 0.533)
La figura 7.19 representa la comparación entre la respuesta del sistema y regulador
continuos con la respuesta del sistema y regulador discretizados.
1.4

1.2

0.8
y

0.6

0.4

0.2

0
0 1 2 3 4 5 6
tiempo

Fig. 7.19: Resultados del sistema del ejemplo 7.5.6 en bucle cerrado con el contro-
lador en tiempo continuo y el controlador discreto equivalente

Determinación de la frecuencia de muestreo


No existe una regla fija en cuanto a la frecuencia de muestreo más adecuada a
la hora de implantar un controlador discreto. Lo único que se sabe es que tiene que
cumplir el teorema de muestreo (ver apartado 2.4.3). De hecho la elección exacta
304 7. Técnicas clásicas de control

del periodo de muestreo depende de: las prestaciones que se desean alcanzar, la
dinámica del proceso, el espectro de las perturbaciones, el actuador, el equipo de
medida disponible y el coste computacional entre otros aspectos.
En términos generales, se puede apreciar que, las prestaciones de un cierto sis-
tema de control no varían sustancialmente a partir de un cierto periodo de muestreo.
Por ello, y dado que muestrear con periodos muy pequeños suele encarecer el coste
del controlador, debe de elegirse razonablemente.
Por otro lado la dinámica del sistema tiene una gran influencia sobre el tiempo
de muestreo, tanto por estructura de la función de transferencia como por las cons-
tantes de tiempo presentes en ella. En general cuanto mayores son las constantes
de tiempo mayores pueden ser los periodos de muestreo.
Otro aspecto a considerar es el espectro de las señales de perturbación presentes
en el sistema.
Por simplificar un poco, dos posibles reglas empíricas de elección podrían ser:

Elegir el tiempo de muestreo de forma que este tiempo sea como máximo
una décima parte de la menor constante de tiempo presente en el sistema.

Si el sistema tiene una respuesta del tipo de un sistema de segundo orden


subamortiguada, se puede elegir el periodo de muestreo de forma que sea 8
veces menor que el periodo de la oscilación de la respuesta amortiguada del
sistema. Y si la respuesta es de segundo orden sobreamortiguada el periodo
se puede tomar 8 veces menor que el tiempo de subida del sistema.

Ejemplo 7.5.7: Si tenemos un sistema cuyos polos dominantes están situados en

p1−2 = −1.57 ± 2.72 j (7.5.71)


podríamos considerar como un periodo de muestreo aceptable T según la primera
de las reglas vistas
1.57
T = = 0.157 (7.5.72)
10
y según la segunda regla tendríamos que la respuesta amortiguada del sistema ten-
dría un periodo to = 2π/wd , y para el caso que estamos considerando wd = 2.72
con lo que to = 2.31:

t0 2.31
T = = = 0.28 (7.5.73)
8 8
Si promediamos entre ambos valores, para este sistema un periodo de mues-
treo razonable sería de T = 0.2 segundos. Como se observa en la figura 7.20, las
respuestas continua y muestreada son muy similares.
7.5. Métodos analíticos de diseño de controladores PID 305

1.4
y(t)
1.2
(a)
1

0.8

0.6 (b)

0.4

0.2

0
0 1 2 3 4 5 6
t

Fig. 7.20: Respuesta del sistema del ejemplo 7.5.7: (a) en tiempo continuo y (b)
muestreado con T = 0.2 segundos

7.5.4. Diseño de controladores PID discretos

Se han estudiado hasta ahora diversos métodos analíticos para el diseño de re-
guladores PID continuos, cómo pueden discretizarse posteriormente los controla-
dores y cual podría ser un periodo de discretización razonable. Es posible también
hacer el diseño del controlador directamente en tiempo discreto. Esto requiere en
primer lugar obtener un equivalente discreto del sistema y convertir las especifi-
caciones temporales que se deseen para el sistema continuo en especificaciones
definidas en términos del plano z discreto (normalmente las posiciones deseadas
para los polos en cadena cerrada o al menos las de los polos dominantes).
Si suponemos que los polos deseados para el comportamiento del sistema con-
tinuo en cadena cerrada están definidos en el plano s, en las posiciones
p
s = −ξ ωn ± jωn 1 − ξ 2 (7.5.74)

y dado que la relación que existe entre la transformada de Laplace y la transformada


z venía dada por la relación z = e T s , estos puntos pasan al plano z como los puntos

p
z = exp [T (−ξ ωn ± jωn 1 − ξ 2 )] (7.5.75)

Las posiciones de los polos en el plano z en cadena cerrada, para un cierto


periodo de muestreo, tendrán el siguiente módulo y argumento
306 7. Técnicas clásicas de control

r +
e

G c ( z ) u y

( z ) ( z )

- 0 . 9 - 0 . 6

Fig. 7.21: Sistema de control del ejemplo 7.5.6


Im

Pd 0.75
0.3 0.66
x x
0.6 0.9 Re

P'd

Fig. 7.22: Lugar de las raíces para el sistema del ejemplo 7.5.6

|z| = e−T ξ ωn
p
6 z = ±T ωn 1 − ξ 2 = ±T ωd = ±θ (7.5.76)
Las técnicas de obtención de los parámetros de un regulador PID discreto que
haga que el sistema cumpla unas ciertas especificaciones son básicamente las mis-
mas que las comentadas para el caso continuo. Las reglas de construcción del lugar
de las raíces en el plano z son también las mismas. Lo único que cambia es que
ahora trabajamos con el círculo unidad estable en el plano z.

Ejemplo 7.5.8: Supongamos que se desea diseñar un controlador discreto para


el sistema mostrado en la figura 7.21 de forma que el sistema tenga los polos en
cadena cerrada situados en las posiciones p1,2 = 0.3 ± j0.66 y el error en régimen
permanente sea nulo. Si observamos el lugar de las raíces en el plano z, para la
ecuación característica del sistema cuando se introduce una ganancia 1+ K G(z) =
0, figura 7.22, se puede observar que no es posible alcanzar las posiciones deseadas,
Pd , para los polos en cadena cerrada del sistema. Por lo que no será suficiente un
regulador P.
Por otra parte, como se quiere anular el error en régimen permanente y puesto
que el sistema no tiene ninguno de sus polos sobre el círculo unidad, será necesario
7.5. Métodos analíticos de diseño de controladores PID 307

incluir un integrador en el controlador. Como resulta necesario modificar tanto la


dinámica como el tipo del sistema introduciremos un regulador de tipo PID.
Dado que la expresión genérica de un PID discreto tenía la forma

q0 + q1 z −1 + q2 z −2 q0 z 2 + q1 z 1 + q2
G c (z) = = (7.5.77)
1 − z −1 z(z − 1)

estamos introduciendo en el sistema dos polos en z = 1 y z = 0 y dos ceros cuyas


posiciones y ganancia es necesario determinar. Puesto que por las especificaciones
sólo se especifican las posiciones de dos polos en cadena cerrada, sólo podremos
fijar los valores de dos de los parámetros del PID. Supongamos que escogemos
uno de los ceros del controlador de forma que cancela el polo situado en z = 0.9.
Aplicando el criterio del modulo y el argumento a la expresión (se ha eliminado el
polo y el cero que se cancelan) 1 + G c (z)G(z) = 0, queda:

4(z − a)
1+K =0 (7.5.78)
z(z − 1)(z − 0.6)

es decir
Qm
|z + z i |
|G c (z)G(z)| = |K | ni=1
Q =1
j=1 |z + pj|
X
m X
n
6 G c (z)G(z) = 6 K+ 6 (z + z i ) − 6 (z + p j ) = (2q + 1)π
i=1 j=1

podremos determinar los valores de K y de a que hacen que el lugar de las raíces
pase por los polos p1,2 = 0.3 ± j0.66. Los argumentos para los polos son

β1 = 138.57o
β2 = 78.69o
β3 = 24.44o (7.5.79)

y como debe de cumplirse el criterio del argumento

α1 = 180 + (β1 + β2 + β3 ) = 61.7o (7.5.80)

Conociendo este ángulo podemos determinar la posición donde debe de estar


situado el cero para que forme dicho ángulo con el punto donde está situado el polo
dominante 0.3 + j0.66. El resultado es que dicho cero está situado en a = 0.265.
Para determinar la ganancia K aplicamos el criterio del módulo

n1n2n3 0.463 · 0.306 · 0.725


4K = = = 0.302 (7.5.81)
m1 0.496
308 7. Técnicas clásicas de control

y de aquí que K = 0.075. El controlador PID tendrá la siguiente función de trans-


ferencia:

0.075(z − 0.9)(z − 0.265)


G c (z) = (7.5.82)
z(z − 1)
Las respuestas del sistema en bucle abierto y cerrado con el controlador P I D
diseñado se muestran en la figura 7.23.

100

y(k) 90
(a)
80

70

60

50

40

30

20

10

0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)

1.8
y(k)
1.6

1.4

1.2 (b)
1

0.8

0.6

0.4

0.2

0
0 5 10 15 20 25 30 35 40
Tiempo ciclos de muestreo)

Fig. 7.23: Respuesta del sistema del ejemplo 7.5.6: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado
7.5. Métodos analíticos de diseño de controladores PID 309

e ( k )

u ( k )

y ( k )

r ( k )
K . T 1 +

- 1
-

T i 1 - z +

K . T d

- 1

1 - z )

y ( k )

Fig. 7.24: Estructura teórica de un control PID discreto

7.5.5. Estructura de un controlador PID discreto real


Se ha comentado anteriormente que la estructura de un controlador PID discre-
to venía dada por la siguiente expresión

T X
k−1
Td
u(k) = K [e(k) + e(i) + (e(k) − e(k − 1))] (7.5.83)
Ti i=0 T

y en la que tomando transformada z tendremos lo siguiente

KT 1 K Td
U (z) = [K + −1
+ (1 − z −1 )]E(z) (7.5.84)
Ti 1 − z T

si separamos los efectos del controlador PID teórico comentado tal y como se
muestra en la figura 7.24, se puede observar varios problemas.
El primer problema que se puede apreciar es que el error entre dos instantes
consecutivos (es decir la derivada del error) puede tomar valores muy grandes lo
que al multiplicar por la ganancia derivativa puede saturar el actuador (esto sucede
cuando hay un ruido importante en el sistema o cuando se aplica un escalón en la
entrada). Para evitar este problema, muchos controladores PID reales utilizan un
esquema de control en el que la ganancia derivativa se sitúa en el lazo de realimen-
tación. Esto tiene la ventaja de no experimentar variaciones bruscas que produzcan
la saturación del actuador.
Un segundo problema denominado saturación integral o en terminología an-
glosajona efecto windup se produce debido a que en sistemas lentos la integral del
error puede llegar a tomar valores muy grandes. Esto hace que la acción de control
integral tome un valor muy grande también, saturando el actuador durante mucho
tiempo. Para evitar este problema se utilizan esquemas de control que permiten la
desactivación del efecto integral cuando este alcanza un cierto valor.
310 7. Técnicas clásicas de control

Un tercer problema se produce cuando en algunos sistemas resulta difícil corre-


gir errores muy pequeños del sistema. Esto sucede en ocasiones cuando existen
efectos no lineales del tipo huelgo en el sistema, o es costoso en tiempo, o en ener-
gía el hacer un ajuste a un valor de referencia con una precisión mayor que un
cierto valor. En estos casos se considera una banda muerta o zona de ganancia nula
alrededor del valor de regimen permanente deseado para el sistema (por ejemplo
de ±1 %). En esta banda muerta se puede ignorar el error, por lo que en definitiva
se está indicando el error admisible con respecto al valor de régimen permanente
deseado. En ocasiones esta zona, en vez de utilizarse una ganancia nula puede uti-
lizarse una ganancia mayor de lo normal para reducir el error sin correr el riesgo
de inestabilizar el sistema con un valor de ganancia alto parar cualquier error.

Kvff(1-z-1)
+

Kaff(1-2z-1+z-2) +

Filtro Notch
r(k) e(k) + 1+n1z-1+n2z-2 u(k)
+ F. Banda + Kp
- muerta + + - 1+d1z-1+d2z-2

MI Ki y(k)
Kd(1-z-1)
1-z-1
Acción derivativa
Acción integral y(k)

Fig. 7.25: Estructura de un PID discreto real

En la figura 7.25 se puede apreciar un esquema real de un controlador PID


discreto utilizado en el control de ejes. En este PID se puede observar que se intro-
ducen mecanismos para evitar los problemas comentados anteriormente, para ello
el efecto derivativo lo tiene situado en el lazo de realimentación, además introduce
una banda muerta o banda de tolerancia y el efecto integral puede desconectarse
cuando alcanza un cierto valor mediante el interruptor M I realizado por software.
El controlador permite además introducir dos ganancias de prealimentación (en no-
tación anglosajona feedforward): una para compensar los retardos producidos por
la inercia del sistema (K a f f ) y otra para compensar la fricción en el sistema. Ade-
más, estas prealimentaciones mejoran los errores de seguimiento. Está preparado
además para realizar un control en cascada con dos lazos de realimentación. Este
tipo de control es usual cuando se desea realizar un control de posición en base a
un motor donde se controla en el lazo interior la velocidad de giro del motor y en
el lazo secundario se hace el control de posición. Es interesante observar que el
7.6. Diseño de reguladores por síntesis directa 311

efecto integral esta situado fuera del lazo interno.


El esquema incluye también un filtro Notch para eliminar posibles picos de
resonancia que se puedan producir en el sistema.

7.6. Diseño de reguladores por síntesis directa

Los controladores clásicos de tipo PID estaban basados inicialmente en el uso


de dispositivos de tipo analógico para conseguir las acciones de control básicas de
tipo proporcional, integral y derivativa. Al sustentarse en dispositivos físicos para
conseguir las diferentes acciones de control, la estructura de los controladores era
rígida lo que condiciona el diseño de los controladores a las acciones de control
integradas en ellos.
Cuando el sistema es complejo, el diseño de controladores PID puede no ser
suficiente para conseguir unas prestaciones adecuadas, pues puede ocurrir que el
controlador necesario para ello sea más complejo que el realizable por medio de
un controlador PID clásico.
El uso de los computadores para realizar el algoritmo de control del sistema
ha permitido el poder diseñar e implantar algoritmos de control más complejos y
además mantener todos los controladores clásicos. En esta sección se estudiará el
diseño analítico de controladores en tiempo discreto que no están restringidos a
una forma básica de función de transferencia. La técnica podría plantearse también
en tiempo continuo, pero su realización sería mucho más compleja, por lo que sólo
se analizará para tiempo discreto.
Consideremos un sistema de control donde el control está situado en la cadena
directa y en el que el controlador es discreto y se realiza por medio de un compu-
tador, para lo que se muestrea la salida del sistema y se introduce un bloqueador
de orden cero a la salida del controlador para disponer de una acción de control en
tiempo continuo sobre el sistema tal y como se muestra en la figura 7.26 (a).
Si obtenemos el equivalente discreto del sistema nos queda un sistema como el
mostrado en la figura 7.26 (b), donde la transformada z del conjunto bloqueador-
proceso viene dado por
 
1 − e−T s
G(z) = Z[BG p (s)] = Z G p (s)
s
X   (7.6.1)
G(s) 1
= (1 − z −1 ) Res
Polos en C
s 1 − e pT z −1

con lo que la función de transferencia para el sistema equivalente en bucle cerrado


viene dada por la siguiente expresión:

Y (z) G c (z)G(z)
F(z) = = (7.6.2)
R(z) 1 + G c (z)G(z)
312 7. Técnicas clásicas de control

r(k) e(k) u(k) u(t) y(t) y(k)


+ Gc(s) Gp(s)
B0(s)
-

y(k)
(a)

r(k) e(k) u(k) y(k)


+ Gc(z) G(z)
-

(b)

Fig. 7.26: Estructura del control (a) y equivalente discreto del sistema (b).

y de aquí, despejando la expresión del controlador G c (z) tenemos

F(z) F(z)
G c (z) = = (7.6.3)
G(z) − F(z)G(z) G(z)[1 − F(z)]

En la expresión 7.6.3, se puede apreciar que, si conocemos la función de trans-


ferencia discreta del sistema G(z) y conocemos la función de transferencia que
deseamos que cumpla el sistema en bucle cerrado, F(z), es posible determinar la
función de transferencia discreta del controlador.
El proceso de diseño del regulador se realizará en tres pasos:

Determinar la función de transferencia deseada en cadena cerrada, F(z), para


el sistema, de forma que verifique las especificaciones de diseño.

Obtener por igualación entre la función de transferencia deseada del sistema


en bucle cerrado y la ecuación 7.6.2 la función de transferencia del controla-
dor (ecuación 7.6.3).

Implantar el controlador obtenido.

Este método de apariencia simple requiere tener en cuenta algunos aspectos


que de otro modo darían lugar a problemas muy importantes en el controlador.
Entre los aspectos a considerar cuidadosamente en el diseño del regulador tenemos
tres básicos:
7.6. Diseño de reguladores por síntesis directa 313

El controlador que obtengamos tiene que ser físicamente realizable, por lo


que su función de transferencia tiene que ser causal. Es decir, el grado del
numerador tiene que ser menor o igual que el del denominador).
Es conveniente que el controlador obtenido sea lo más simple posible. Hay
que tener en cuenta que pueden existir muchos controladores que den lugar
a la función de transferencia deseada, F(z) en cadena cerrada.
Es necesario tener en cuenta que aunque matemáticamente es posible realizar
la cancelación de un polo o un cero, en la práctica no es posible llevar a cabo
una cancelación exacta. Por lo que no resulta conveniente cancelar polos o
ceros inestables o críticamente estables del proceso, ya que esto daría lugar
a sistemas inestables.

7.6.1. Restricciones de realización física


Para garantizar la realización física del controlador es necesario que la función
de transferencia discreta del mismo sea causal, es decir que no dependa de datos
futuros. Esto implica que la función de transferencia del controlador debe tener un
polinomio en el numerador de grado menor o igual que el del denominador.
Si suponemos que la función de transferencia del controlador es de la forma
b0 + b1 z −1 + . . . + bm z −m
G c (z) =
1 + a1 z −1 + . . . + an z −n
N gc (z)
= (7.6.4)
Dgc (z)
la condición general de realización será la relación entre los grados de los polino-
mios:
gr[Dgc (z)] ≥ gr[N gc (z)] (7.6.5)
Analicemos un poco más detalladamente esta condición. Para ello observemos
que expresando F(z), G(z) y G c (z) en función de los polinomios de sus numera-
dores y denominadores
N f (z)
F(z) = (7.6.6)
D f (z)
N g(z)
G(z) = (7.6.7)
Dg(z)
N gc (z)
G c (z) = (7.6.8)
Dgc (z)
la condición 7.6.5, teniendo en cuenta 7.6.3, se puede expresar de la siguiente for-
ma
gr[N f (z)] + gr[Dg(z)] ≤ gr[N g(z)] + gr[D f (z) − N f (z)] (7.6.9)
314 7. Técnicas clásicas de control

Como además de ser realizable físicamente el controlador, también debe de serlo


el sistema en cadena cerrada

gr[N f (z)] ≤ gr[D f (z)] (7.6.10)

y teniendo en cuenta esta condición, el último término de la desigualdad 7.6.9 se


puede simplificar, con lo que nos queda

gr[N f (z)] + gr[Dg(z)] ≤ gr[N g(z)] + gr[D f (z)] (7.6.11)

y reubicando los términos de la desigualdad obtenemos que

gr[Dg(z)] − gr[N g(z)] ≤ gr[D f (z)] − gr[N f (z)] (7.6.12)

Esta desigualdad nos dice que, la diferencia entre los grados del denominador y del
numerador (en sistemas discretos esto indica el retardo del sistema) en la función
de transferencia en bucle cerrado del sistema F(z), debe de ser mayor o igual que
el retardo de proceso, para que el controlador sea realizable físicamente. De forma
simplificada, se puede decir que el retardo de modelo F(z), tiene que ser igual o
mayor que el retardo del proceso a controlar.

7.6.2. Conveniencia de simplicidad


Aunque, a primera vista, se podría pensar que como la expresión general de la
función de transferencia del controlador
F(z)
G c (z) = (7.6.13)
G(z)[1 − F(z)]
es función de F(z), cuanto más sencilla sea F(z) más lo será G c (z). Sin embargo,
esto no es cierto pues hay que tener en cuenta que la función de transferencia del
proceso aparece también y esta puede ser muy compleja.
Pese a todo, conviene que, en lo posible, el controlador sea lo más sencillo que
la función de transferencia del sistema y las especificaciones nos permitan. Para
ello, la desigualdad 7.6.12 debe convertirse en la igualdad

gr[Dg(z)] − gr[N g(z)] = gr[D f (z)] − gr[N f (z)] (7.6.14)

7.6.3. Restricciones de estabilidad


Si observamos la figura 7.27 y obtenemos la función de transferencia en cadena
cerrada del sistema se tiene que

G c (z)G(z)
F(z) = (7.6.15)
1 + G c (z)G(z)
7.6. Diseño de reguladores por síntesis directa 315

y despejando en 7.6.15 se obtiene la expresión del controlador como función de las


funciones de transferencia en cadena cerrada deseada F(z) y del proceso G(z).

1 F(z)
G c (z) = (7.6.16)
G(z) 1 − F(z)

( k ) ( k )
( k )
( k ) +
e

G c ( z ) u

G ( z ) y

Fig. 7.27: Estructura típica de un lazo de control

La función de transferencia que se obtiene para el controlador G c (z), indicado


en la ecuación 7.6.16, tiene dos términos claramente diferenciados, un primer tér-
mino es la inversa de la función de transferencia del proceso y un segundo término
que es función únicamente de la función de transferencia deseada para el sistema
F(z). Es evidente que el primer término del controlador puede cancelar los polos
y ceros del proceso.
Matemáticamente sería posible diseñar el regulador de forma que se cancelasen
en cadena abierta los polos y ceros inestables del proceso. Sin embargo estas can-
celaciones, que matemáticamente no presentan problemas, son sin embargo muy
conflictivas en la práctica ya que una cancelación exacta es improbable, lo que
ocasiona que el sistema se inestabilice o que no se amortigüe adecuadamente. Es
necesario por lo tanto evitar las cancelaciones de aquellos polos o ceros del proceso
que estén fuera del círculo unidad o sobre él.
Supongamos que en las expresiones del numerador y denominador de la fun-
ción de transferencia del proceso indicamos separadamente los polos y ceros si-
tuados en el interior del círculo unidad (Dgi (z), N gi (z)), y los situados sobre el
círculo o en el exterior (Dge (z), N ge (z)), de forma que

N g(z) = N ge (z)N gi (z)


Dg(z) = Dge (z)Dgi (z) (7.6.17)

Una forma de evitar las cancelaciones indeseadas con los polos y ceros ines-
tables (o críticamente estables) de G c G, consiste en hacer que estos polos y ceros
inestables aparezcan de forma explícita en F(z) y en 1 − F(z) de forma que can-
celen los que aparecen en el término 1/G(z) del controlador. De esta forma, los
polos y ceros del proceso no serán cancelados (lo que por otra parte no sería posi-
ble realizar de forma exacta con el proceso y sin embargo si es posible realizar en
316 7. Técnicas clásicas de control

el controlador puesto que en el controlador la G(z) que aparece es la del modelo


estimado del sistema y no la real que no se conoce con exactitud). Supongamos
entonces que se escoge la función de transferencia F(z) de forma que:
N f (z) = N ge (z)N f ∗ (z)
(7.6.18)
[D f (z) − N f (z)] = Dge (z)[D f (z) − N f (z)]∗
donde el asterisco expresa el resto de la función después de extraer el término
correspondiente.
Sustituyendo estas expresiones 7.6.17 y 7.6.18 en la 7.6.16 se obtiene que

Dg(z)N f (z)
G c (z) =
N g(z)[D f (z) − N f (z)]
Dge (z)Dgi (z)N ge (z)N f ∗ (z)
=
N ge (z)N gi (z)Dge (z)[D f (z) − N f (z)]∗
Dgi (z)N f ∗ (z)
= (7.6.19)
N gi (z)[D f (z) − N f (z)]∗
En la expresión 7.6.19 se aprecia que en el controlador se cancelan los polos
y ceros inestables del proceso. Por otra parte, si observamos la función de transfe-
rencia del sistema con controlador en cadena abierta, tenemos que
Dgi (z)N f ∗ (z) N ge (z)N gi (z)
G c (z)G(z) = ∗
N gi (z)[D f (z) − N f (z)] Dge (z)Dgi (z)
N f ∗ (z)N ge (z)
= (7.6.20)
[D f (z) − N f (z)]∗ Dge (z)
En esta expresión 7.6.20 se puede apreciar que en la función de transferencia en
cadena abierta del sistema no se han cancelado los polos y ceros inestables o críti-
camente estables del proceso como deseábamos.
Podemos resumir estas restricciones diciendo que, para que no se produzcan
cancelaciones entre los polos y ceros del regulador con los polos y ceros inestables
o críticamente estables del proceso, se tienen que verificar las siguiente restriccio-
nes:

Los ceros del numerador de la función de transferencia en cadena cerrada


deseada, F(z), para el sistema, deben de contener los ceros inestables o crí-
ticamente estables de la planta.
N f (z) = N ge (z)N f ∗ (z) (7.6.21)

La expresión polinómica [D f (z) − N f (z)] debe de contener entre sus ceros


los polos inestables o críticamente estables del proceso.
[D f (z) − N f (z)] = Dge (z)[D f (z) − N f (z)]∗ (7.6.22)
7.6. Diseño de reguladores por síntesis directa 317

Ejemplo 7.6.1: Sea un sistema cuyo equivalente discreto viene dado por la si-
guiente función de transferencia:

(z − 0.5)
G(z) = (7.6.23)
(z − 0.2)(z − 0.9)
y supongamos que se quiere diseñar un controlador de forma que los polos en
cadena cerrada del sistema estén situados en p1,2 = 0.3 ± j0.6 y que además tenga
un error en régimen permanente ante entrada escalón nulo.
De las posiciones de los polos podemos decir que la función de transferencia
F(z) debe de tener la siguiente forma:

N f (z) N f (z)
F(z) = = m 2 (7.6.24)
z m (z − 0.3 + j0.6)(z − 0.3 − j0.6) z (z − 0.6z + 0.45)
siendo z m una variable de ajuste, que como sabemos, no influye en la dinámica de
F(z).
Por otra parte y para que el sistema tenga error en régimen permanente nulo es
necesario introducir un polo en (z − 1) en la función de transferencia en cadena
abierta. Es decir

F(z) N f (z) N f (z)


G(z)G c (z) = = =
1 − F(z) [D f (z) − N f (z)] (z − 1)[D f (z) − N f (z)]∗
(7.6.25)
De las ecuaciones 7.6.24 y 7.6.25, tenemos que:

[D f (z) − N f (z)] = z m (z 2 − 0.6z + 0.45) − N f (z) = (z − 1)[D f (z) − N f (z)]∗


(7.6.26)
Tenemos que determinar el valor de m y los polinomios N f (z) y [D f (z)− N f (z)]∗
para obtener la expresión del controlador que satisface las especificaciones de di-
seño.
La restricción de estabilidad en este caso no afecta puesto que todos los polos
y ceros del proceso son estables. Por otra parte la restricción de realización física
nos indica que

gr[Dg(z)] − gr[N g(z)] ≤ gr[D f (z)] − gr[N f (z)] (7.6.27)

es decir, en nuestro caso

2 − 1 ≤ (m + 2) − gr[N f (z)] (7.6.28)

luego gr[N f (z)] ≤ m + 1. Por simplicidad tomaremos el menor grado m que nos
garantice una solución. Supongamos que m = 0, en este caso N f (z) ≤ 1, es decir
318 7. Técnicas clásicas de control

N f (z) = p0 + p1 z. Por otra parte al hacer m = 0 el grado de gr [D f (z)− N f (z)] =


2 por lo que como [D f (z) − N f (z)] = (z − 1)[D f (z) − N f (z)]∗ el término
[D f (z) − N f (z)]∗ será un polinomio de grado 1. De acuerdo con esto, la ecuación
7.6.26 nos queda en la siguiente forma
(z 2 − 0.6z + 0.45) − ( p0 + p1 z) = (z − 1)(n 0 + n 1 z) (7.6.29)
En esta expresión, al ser un polinomio de grado 2, tenemos tres ecuaciones
(tantas como coeficientes tiene el polinomio) y cuatro incógnitas ( p0 , p1 , n 0 , n 1 ).
Es decir tenemos una incógnita más que el número de ecuaciones, luego tenemos 1
grado de libertad adicional. Añadimos una condición más al sistema para igualar el
número de ecuaciones con el de incógnitas, esta condición es, por ejemplo, suponer
que p1 = 0. Con esta condición tendremos que
(z 2 − 0.6z + 0.45) − ( p0 ) = (z − 1)(n 0 + n 1 z) (7.6.30)
de esta expresión tenemos que
1 = n1
−0.6 = n 0 − n 1 (7.6.31)
0.45 − p0 = −n 0
y resolviendo obtenemos que la solución al sistema de ecuaciones 7.6.31 es p0 =
0.85, n 0 = 0.4, n 1 = 1. Por lo tanto, tendremos que
0.85
F(z) = (7.6.32)
(z 2 − 0.6z + 0.45)
y el controlador tendrá la siguiente función de transferencia
0.85(z − 0.2)(z − 0.9)
G c (z) = (7.6.33)
(z − 0.5)(z 2 − 0.6z − 0.4)
Como se puede observar la función del controlador es más compleja que la de
los reguladores PID, incluso para un caso relativamente simple como este. La res-
puesta del sistema en bucle abierto y en bucle cerrado con el controlador diseñado
se presenta en la figura 7.28.

7.6.4. Controladores con tiempo de establecimiento mínimo


Un tipo muy interesante de controladores son aquellos sistemas que alcanzan
el régimen permanente en un número finito de periodo de muestreo. Es frecuente
que el diseño del controlador se realize de forma que el error en régimen perma-
nente se haga cero en un número finito de periodos de muestreo. En el caso de que
el controlador haga el error cero en el menor número de periodos de muestreo po-
sible, se le denomina controlador de tiempo mínimo ("deadbeat"en denominación
anglosajona).
7.6. Diseño de reguladores por síntesis directa 319

6
y(k) (a)
5

2
(b)
1

0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)

Fig. 7.28: Respuesta del sistema del ejemplo 7.6.1: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

Sistemas sin retardo


Supongamos un proceso general, sin retardo cuya función de transferencia es
de la forma

b1 z −1 + . . . + bm z −m B(z −1 )
G(z) = = (7.6.34)
1 + a1 z −1 + . . . + am z −m A(z −1 )
Para una entrada escalón unitario r (k) = 1, k = 1, 2, . . . un sistema sin
retardo tendrá una respuesta con tiempo de establecimiento mínimo si (fig. 7.27):

y(k) = r (k) = 1 ∀k ≥ m (7.6.35)


u(k) = u(m) ∀k ≥ m (7.6.36)

las transformadas z de estas variables son:

1
R(z) =
1 − z −1
Y (z) = y(1)z −1 + y(2)z −2 + . . . + 1[z −m + z −(m+1) + . . .] (7.6.37)

U (z) = u(0) + u(1)z −1 + u(2)z −2 + . . . + u(m)[z −m + z −(m+1) + . . .]

De esta forma, la función de transferencia de un sistema con un tiempo de estable-


cimiento mínimo tendrá la siguiente expresión
320 7. Técnicas clásicas de control

Y (z)
F(z) = = p1 z −1 + p2 z −2 + . . . + pm z −m
R(z)
(7.6.38)
p1 z m−1 + p2 z m−2 + . . . + pm
= = P(z)
zm
donde

p1 = y(1)
p2 = y(2) − y(1) (7.6.39)
..
. (7.6.40)
pm = 1 − y(m − 1)

y
U (z)
= q0 + q1 z −1 + . . . + qm z −m = Q(z) (7.6.41)
R(z)
donde

q0 = u(0)
q1 = u(1) − u(0) (7.6.42)
..
. (7.6.43)
qm = u(m) − u(m − 1)

La expresión 7.6.38 es equivalente a que el modelo F(z) tenga m polos en el


origen. Este modelo corresponde a un sistema con respuesta de tiempo mínimo
(dead-beat).
Nótese que Y (z)/U (z) y U (z)/R(z) tienen un número finito de términos y
retardos, iguales a m, lo que demuestra que son polinomios del mínimo orden po-
sible.
Si recordamos que la expresión de la función de transferencia en cadena cerrada
tenía la expresión

Y (z) G c (z)G(z)
F(z) = = (7.6.44)
R(z) 1 + G c (z)G(z)
y que buscamos determinar el controlador G c (z) que haga que la respuesta del
sistema tenga un tiempo de establecimiento mínimo y sea la descrita por los po-
linomios P(z) y Q(z). Tenemos que, al haber supuesto que la entrada al sistema
es un escalón unitario y que el error en regimen permanente ante dicha entrada se
debe de ser nulo, el valor en regimen permanente de la salida del sistema en lazo
7.6. Diseño de reguladores por síntesis directa 321

cerrado tendrá la siguiente expresión


y(∞) = lim (z − 1)R(z)F(z)
z→1
z G c (z)G(z)
= lim
− 1 1 + G c (z)G(z)
z→1 z
G c (1)G(1)
=
1 + G c (1)G(1)
= 1 (7.6.45)
De aquí se puede observar que
p1 + p2 + . . . + p m = 1
1
q0 + q1 + . . . + qm = u(m) = (7.6.46)
G(1)
donde G(1) es la ganancia estática del proceso.
Por otra parte de la expresión 7.6.44 obtenemos que
1 F(z)
G c (z) = (7.6.47)
G(z) 1 − F(z)
y de esta expresión 7.6.47 y 7.6.38 tenemos que

F(z) = P(z) (7.6.48)


Además de las expresiones 7.6.38 y 7.6.41 se deduce que
Y (z) P(z)
G(z) = = (7.6.49)
U (z) Q(z)
con lo que la expresión del controlador quedará en la forma
Q(z) q0 + q1 z −1 + . . . + qm z −m
G c (z) = = (7.6.50)
1 − P(z) 1 − p1 z −1 − . . . − pm z −m
los parámetros de este controlador se obtienen comparándolos con los coeficientes
de la función de transferencia del proceso
b0 + b1 z −1 + . . . + bm z −m
G(z) = (7.6.51)
1 + a1 z −1 + . . . + am z −m
con los coeficientes que se obtienen expresando G(z) a partir de las condi-
ciones de tiempo mínimo y de error de posición cero en régimen permanente que
imponemos, es decir
p1 −1
P(z) p1 z −1 + . . . + pm z −m q0
z + . . . + pqm0 z −m
G(z) = = =
Q(z) q0 + q1 z −1 + . . . + qm z −m 1 + qq10 z −1 + . . . + qqm0 z −m
(7.6.52)
322 7. Técnicas clásicas de control

con lo que obtenemos

q1 = a1 q 0 p1 = b1 q0
q2 = a2 q 0 p2 = b2 q0
..
.
q m = am q 0 p m = bm q 0 (7.6.53)

y de la expresión p1 + p2 + . . . + pm = 1 se obtiene que

1
q0 = = u(0) (7.6.54)
b1 + . . . + bm
Como se puede observar de 7.6.53 y 7.6.54 los parámetros del controlador
que nos da un tiempo de establecimiento mínimo y error en régimen permanente
cero para una entrada escalón se pueden calcular de una forma muy simple. Es
interesante observar que el valor inicial de la salida del controlador, u(0), depende
sólo de la suma de los parámetros b del proceso. Esta suma tiende a decrecer a
medida que el tiempo de muestreo es más pequeño, por lo que el valor de u(0)
aumenta cuanto menor es el periodo de muestreo (hay que tener en consideración
este efecto ya que puede llegar a saturar los actuadores).
Si introducimos los coeficientes 7.6.53 y 7.6.54 en la expresión del controlador
7.6.50, nos queda que

Q(z) q0 A(z −1 )
G c (z) = = (7.6.55)
1 − P(z) 1 − q0 B(z −1 )
Si comparamos esta expresión 7.6.55 con la función de transferencia del pro-
ceso 7.6.34, se puede observar que los ceros del controlador se cancelan con los
polos del proceso, quedando como función de transferencia del sistema en cadena
cerrada la expresión siguiente

G c (z)G(z)
F(z) =
1 + G c (z)G(z)
q0 A(z −1 ) B(z −1 )
1−q0 B(z −1 ) A(z −1 )
= q0 A(z −1 ) B(z −1 )
1 + 1−q −1 −1
0 B(z ) A(z )
−1
= q0 B(z )
q0 B(z)
=
zm
p1 z m−1 + . . . + pm
=
zm
= p1 z + . . . + pm z −m
−1
(7.6.56)
7.6. Diseño de reguladores por síntesis directa 323

que era la que se deseaba obtener. Como se puede observar un sistema con tiempo
de establecimiento mínimo tiene todos sus polos en el origen de coordenadas del
plano z.
En esta sección se ha visto una técnica directa de obtención del regulador para
estos sistemas de tiempo mínimo, pero también se podría haber obtenido el regula-
dor aplicando el método de síntesis directa visto en la sección anterior, para lo cual
habría que tener en cuenta que la función de transferencia en cadena cerrada es de
la forma F(z) = P(z) = p1 z+ z2
p2
y que el controlador debe de incluir un polo en
(z − 1) para anular el error en régimen permanente.
Ejemplo 7.6.2: Supongamos que se tiene un sistema con función de transferencia
(z − 0.5) z −1 − 0.5z −2 B(z −1 )
G(z) = = = (7.6.57)
(z − 0.2)(z − 0.9) 1 − 1.1z −1 + 0.18z −2 A(z −1 )
y que se desea diseñar un controlador de forma que la respuesta del sistema sea de
tiempo mínimo y con error en régimen permanente nulo. Como el sistema es de
orden dos, la respuesta del sistema se alcanzará como mínimo en dos periodos de
muestreo, luego la respuesta del sistema será un polinomio del tipo

F(z) = P(z) = p1 z −1 + p2 z −2 (7.6.58)


De acuerdo con 7.6.54 tenemos que:
1
q0 = =2 (7.6.59)
b1 + b2
y de las expresiones 7.6.53 tenemos que

q1 = a1 .q0 = −2.2
q2 = a2 .q0 = 0.36
p1 = b1 .q0 = 2
p2 = b2 .q0 = −1 (7.6.60)
y de 7.6.59 y 7.6.60 tenemos que la función de transferencia del regulador será

Q(z) 2 − 2.2z −1 + 0.36z −2


G c (z) = = (7.6.61)
1 − P(z) 1 − 2z −1 + z −2
y la función de transferencia

F(z) = P(z) = 2z −1 − z −2 (7.6.62)


La secuencia de salida de el sistema en cadena cerrada ante entrada escalón uni-
tario vendrá dada por la secuencia y(k) = 0, 2, 1, 1, 1, 1, . . . para k = 0, 1, 2 . . ..
Como se puede observar en la figura 7.29 este tipo de regulador alcanza rápida-
mente el valor de régimen permanente pero la sobreoscilación es considerable.
324 7. Técnicas clásicas de control

6
y(k)
5 (a)

2
(b)
1

0
0 10 20 30 40 50 60
Tiempo (ciclos de muestreo)

Fig. 7.29: Respuesta del sistema del ejemplo 7.6.2: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

Sistemas con retardo


En el caso de que el proceso tenga retardo, la función de transferencia del
proceso tiene una expresión general de la forma

b1 z −1 + . . . + bm z −m
G(z) = z −d (7.6.63)
1 + a1 z −1 + . . . + am z −m
esta expresión puede verse como un caso particular de uno más general de la forma
b10 z −1 + . . . + bv0 z −v
G(z) = (7.6.64)
1 + a1 z −1 + . . . + av z −v
donde v = m + d y en el que los coeficientes de la expresión 7.6.64 son los
siguientes

am+1 = . . . = av = 0
b10 = b20 = . . . = bd0 = 0
0
bd+1 = b1
..
.
0
bd+m = bm (7.6.65)

Si como en el caso anterior queremos que el sistema tenga un tiempo de esta-


blecimiento mínimo. Es necesario que
7.6. Diseño de reguladores por síntesis directa 325

y(k) = r (k) = 1 ∀k ≥ v = m + d (7.6.66)


u(k) = u(m) ∀k ≥ m (7.6.67)

Se puede aplicar directamente lo visto para el caso anterior, con la salvedad de


que ahora se anularán los d parámetros finales de Q(z)(qm+1 = . . . = qv = 0) y los
d iniciales de P(z) y los p1 = . . . = pd = 0 con lo que la función de transferencia
del controlador quedará

Q(z) q0 + q1 z −1 + . . . + qm z −m
G c (z) = = (7.6.68)
1 − P(z) 1 − pd+1 z −1 − . . . − pm+d z −m+d
es decir,
q0 A(z −1 )
G c (z) = (7.6.69)
1 − q0 B(z −1 )z −d
y por tanto la función de transferencia resultante en cadena cerrada quedará de la
forma

F(z) = q0 B(z −1 )z −d
q0 B(z)
= (7.6.70)
z m+d

y su ecuación característica será z m+d = 0. Es decir, tendrá m + d polos en el


origen de coordenadas del plano z.

Ejemplo 7.6.3: Supongamos que se tiene un sistema con función de transferencia

z −1 − 0.5z −2 B(z −1 )
G(z) = z −2 = (7.6.71)
1 − 1.1z −1 + 0.18z −2 A(z −1 )
y que se desea diseñar un controlador de forma que la respuesta del sistema sea
de tiempo mínimo y con error en régimen permanente nulo. Como el sistema es de
orden cuatro, la respuesta del sistema se alcanzará como mínimo en cuatro periodos
de muestreo, luego la respuesta del sistema será un polinomio del tipo

F(z) = P(z) = p1 z −1 + p2 z −2 + p3 z −3 + p4 z −4 (7.6.72)


De acuerdo con 7.6.54 tenemos que:

1
q0 = =2 (7.6.73)
b1 + b2 + b3 + b4

y de las expresiones 7.6.53 tenemos que


326 7. Técnicas clásicas de control

q1 = a1 .q0 = −2.2
q2 = a2 .q0 = 0.36
q3 = a3 .q0 = 0
q4 = a4 .q0 = 0
p1 = b1 .q0 = 0
p2 = b2 .q0 = 0
p3 = b3 .q0 = 2
p4 = b4 .q0 = −1 (7.6.74)

y de 7.6.73 y 7.6.74 tenemos que la función de transferencia del regulador será

Q(z) 2 − 2.2z −1 + 0.36z −2


G c (z) = = (7.6.75)
1 − P(z) 1 − 2z −3 + z −4
y la función de transferencia en cadena cerrada será

F(z) = P(z) = 2z −3 − z −4 (7.6.76)


La secuencia de salida de el sistema en cadena cerrada ante entrada escalón
unitario vendrá dada por la secuencia y(k) = 0, 0, 0, 2, 1, 1, 1, 1, . . . para k =
0, 1, 2, . . . (Fig.7.30).
7.6. Diseño de reguladores por síntesis directa 327

6
y(k)
(a)
5

2
(b)
1

0
0 10 20 30 40 50 60 70
Tiempo (ciclos de muestreo)

Fig. 7.30: Respuesta del sistema del ejemplo 7.6.3: (a) en bucle abierto y (b) en
bucle cerrado con el controlador diseñado

Bibliografía

[1] R. Aracil y A. Jiménez, Sistemas discretos de control, Servicio de publica-


ciones ETSIIM-UPM, 1980.

[2] K. Aström and T. Hägglund, PID Controllers:Theory, Design, and Tuning,


ISA - The Instrumentation, Systems, and Automation Society, 1994.

[3] G.F. Franklin, J.D. Powell and M. Workman, Digital Control of Dynamics
Systems, Addison Wesley, 1997.

[4] R. Isermann, Digital Control Systems: Volume I Fundamentals, Determinis-


tic Control , Springer-Verlag, 1989.

[5] K. Ogata, Discrete-Time Control Systems, Prentice Hall International Edi-


tion, 1995.

[6] K. Ogata, Ingeniería de control moderna, Prentice Hall, 1998.

[7] E. Andrés Puente, Regulación automática, Servicio de publicaciones ETSIIM-


UPM, 1993.
328 7. Técnicas clásicas de control
8. CONTROL DE SISTEMAS POR
REALIMENTACIÓN DE ESTADO

8.1. Planteamiento del problema

La formulación del modelo de un sistema en el espacio de estados presenta


considerables ventajas a la hora de diseñar esquemas de control para sistemas con
múltiples entradas de control y salidas del sistema. Aunque es probablemente en
este tipo de problemas donde más clara y evidente se muestra esta técnica de re-
presentación, análisis y diseño de sistemas de control, no es el único caso ya que
también en sistemas con una entrada y una salida puede resultar de considerable
utilidad.
En este capítulo se van a tratar varios aspectos básicos del diseño de sistemas
de control en el espacio de estados. En primer lugar se estudiará la técnica de con-
trol por realimentación del estado (interno) del sistema, suponiendo inicialmente
que dicho estado es accesible (medible). A continuación se tratará el caso en el que
las variables de estado del sistema no son accesibles, y se introducirá el concep-
to de observador de estado, para posteriormente estudiar el caso de sistemas con
variables accesibles y otras que no lo son. Por último se estudiará el caso de sis-
temas sometidos a perturbaciones y como pueden diseñarse observadores que nos
permitan estimar de forma óptima el estado del sistema para poder controlarlo con
precisión.
El esquema básico de control por realimentación de estado se puede ver en la
figura 8.1, donde se puede apreciar la diferencia existente entre esta técnica y los
reguladores de tipo PID tradicionales. Quizás la diferencia más evidente es que en
esta técnica el regulador está en la realimentación y que esta realimentación no
utiliza la salida sino el estado para determinar la acción de control. Esto permite
tener un mayor grado de precisión en las acciones ya que es posible diferenciar las
causas por las que la salida no toma el valor adecuado lo que no es posible con la
estructura clásica de entrada/salida del regulador PID.
El diseño de reguladores y de observadores de estado requieren de dos con-
ceptos básicos que son la controlabilidad y la observabilidad. Ambos conceptos
fueron introducidos por R.E. Kalman.
El concepto de controlabilidad es la base de las soluciones al problema de
ubicación de los polos del sistema realimentado y el concepto de observabilidad lo
330 8. Control de sistemas por realimentación de estado

r u x y
+ +
-
B
+ ∫ C

Fig. 8.1: Diagrama de bloques de un sistema realimentado en estado

es para el diseño de observadores de estado.

8.1.1. Modos observables y controlables


Supongamos un cierto sistema en tiempo continuo expresado en la forma ca-
nónica de Jordan con autovalores distintos. Para este sistema se vio que la matriz
de transición tomaba la forma
 
λ1 t
e 0 ... 0 
 
 0 e 2t . . . 0 
λ
At 
e = .  (8.1.1)
. .. 
 . . 
 
λn t
0 0 ... e

y el componente i-ésimo de la solución de la ecuación de estado x se podía expresar


como
Z t
λi (t−t0 )
xi (t) = e xi (t0 ) + eλi (t−τ ) Bi u(τ )dτ (8.1.2)
t0

A este componente de la solución del vector de estado se le denomina modo de


respuesta del sistema (modo con autovalor λi ). La respuesta total del sistema tiene
la forma
y(t) = C1 x1 (t) + . . . + Cn xn (t) (8.1.3)
donde C1 , . . . , Cn son los coeficientes de la matriz C.
Si observamos la expresión 8.1.2 del modo de respuesta xi del sistema, pode-
mos apreciar que en el caso de que el vector fila Bi = 0 dicho modo de respuesta
8.2. Controlabilidad de un sistema 331

no se verá influido por la entrada u(t) al sistema. Como además en la forma ca-
nónica diagonal la variable xi tampoco tiene influencia de las otras variables de
estado nos encontramos que no resulta posible influir sobre el valor de dicha va-
riable de estado ni directamente (via entrada de control) ni indirectamente (via la
influencia de alguna otra variable de estado). En este caso diremos que es un modo
no controlable. Si algún modo del sistema es no controlable existirán estados del
sistema que no son alcanzables y el sistema es no controlable.
De forma similar, una columna Ci = 0 en la matriz C da como resultado
que dicho modo no sea observable en la salida del sistema. Mientras que si Ci es
distinto de cero tendremos un modo observable.
Estos conceptos definidos de forma intuitiva para un sistema en la forma canó-
nica diagonal, pueden ser generalizados como veremos a continuación.

8.2. Controlabilidad de un sistema

Dado que este tipo de técnicas de control suele realizarse por computador y
que el tratamiento matemático del problema es más simple en el caso discreto que
en el continuo; se va a suponer que el sistema

ẋ(t) = Ax(t) + Bu(t)


y(t) = C x(t) (8.2.1)

es discretizado, de forma que trabajaremos con el siguiente sistema en tiempo dis-


creto

x(k + 1) = Gx(k) + H u(k)


y(k) = C x(k) (8.2.2)

donde

G = e AT
Z T
H = e Aτ Bdτ (8.2.3)
0

siendo T es el periodo con el que se muestrea el sistema.


No obstante, la mayoría de los desarrollos de éste capítulo son inmediatamente
aplicables a sistemas continuos sin más que realizar el correspondiente cambio de
nomenclatura en las matrices y vectores.

8.2.1. Controlabilidad de estado


332 8. Control de sistemas por realimentación de estado

Definición 8.2.1: Se dice que un sistema de control, de dimensión n, es comple-


tamente controlable en estado si existe una entrada u definida entre [0, n − 1] tal
que es posible hacer pasar al sistema desde un estado inicial arbitrario x(0) a otro
estado final arbitrario x(n) en un periodo finito de tiempo (n periodos de muestreo).
De forma intuitiva, podemos pensar que si una variable de estado es indepen-
diente de la señal de control, entonces resulta imposible controlar la evolución de
esta variable de estado y por lo tanto el sistema no será controlable. Veamos cómo
se puede analizar si un sistema es o no controlable. Supondremos en primer lugar
el caso en que la entrada de control es escalar.

Entrada u(k) escalar


Veamos la controlabilidad para un sistema lineal de tiempo discreto invariante
en el tiempo con entrada de tipo escalar. Supongamos que el sistema viene definido
por la siguiente ecuación de estado:
x(k + 1) = Gx(k) + H u(k) (8.2.4)
donde G : n × n, H : n × 1, x : n × 1, u : 1 × 1.
Recordando que la solución de la ecuación de estado para un sistema lineal de
tiempo discreto invariante tenía la forma
X
n−1
x(n) = G n x(0) + G n− j−1 H u( j)
j=0 (8.2.5)
= G n x(0) + G n−1 H u(0) + G n−2 H u(1) + . . . + H u(n − 1)
de donde, puesto en forma matricial, tenemos

 
u(n − 1)
h i 
u(n − 2)
x(n) − G n x(0) = H   (8.2.6)
G H . . . G n−1 H  .. 
 . 
 
u(0)
Dado que H es una matriz n × 1 y que G es n × n, la matriz
h i
MC = H G H . . . G n−1 H (8.2.7)

tendrá dimensiones n × n. En el sistema de ecuaciones 8.2.6 conocemos los es-


tados iniciales, x(0), y final, x(n), y podemos calcular la matriz MC . Para poder
determinar el vector de entradas de control se tiene que verificar que el rango de la
matriz MC sea n. A la matriz MC se le denomina matriz de controlabilidad.
8.2. Controlabilidad de un sistema 333

Definición 8.2.2 (Condición de controlabilidad del estado): La condición ne-


cesaria y suficiente para que un sistema sea completamente controlable en estado
es que el rango de la matriz de controlabilidad sea n.

rango(MC ) = n

Ejemplo 8.2.1: Dado el sistema definido por las ecuaciones siguientes


      
x1 (k + 1) = −1 0  x1 (k) + 1 u(k) (8.2.8)
x2 (k + 1) 0 −2 x2 (k) 1
determinar la secuencia de entradas u(0), u(1) que hay que introducir al sistema
para que este pase del estado [0 0]T en el instante 0 al estado [2 0]T en el ciclo
2.
Solución:
De acuerdo con la ecuación 8.2.6 tenemos que
       
x (2)
 1 − 1 0 x (0)
 1  =  1 −1  u(1)  (8.2.9)
x2 (2) 0 4 x2 (0) 1 −2 u(0)
y de aquí sustituyendo x1 (0), x2 (0), x1 (2), x2 (2) por los valores deseados del esta-
do inicial y final tendremos que
       
2
 − 1 0 0
  =  1 −1  u(1)  (8.2.10)
0 0 4 0 1 −2 u(0)
    
2
 = 1 −1  u(1)  (8.2.11)
0 1 −2 u(0)
donde  
1 −1
MC =  (8.2.12)
1 −2
y dado que el det (Mc ) 6= 0, el rango de la matriz de controlabilidad es 2 y el siste-
ma es completamente controlable en estado. Resolviendo el sistema de ecuaciones
8.2.11 tenemos (
2 = u(1) − u(0)
(8.2.13)
0 = u(1) − 2u(0)
por tanto,
u(1) = 2u(0)
y la solución es u(0) = 2, u(1) = 4.
334 8. Control de sistemas por realimentación de estado

Ejemplo 8.2.2: Supongamos un segundo sistema definido por las ecuaciones si-
guientes
      
x1 (k + 1) = −1 0  x1 (k) + 1 u(k) (8.2.14)
x2 (k + 1) 0 −2 x2 (k) 0

determinar la secuencia de entradas (u(0), u(1)) que hay que introducir al sistema
para que este pase del estado [0 0]T en el instante 0 al estado [2 0]T en el ciclo
2.
Solución:
De acuerdo con la ecuación 8.2.6 tenemos que
        
x (2)
 1 − 1 0 x (0)
 1  =  1 −1 + u(1)  (8.2.15)
x2 (2) 0 4 x2 (0) 0 0 u(0)

y de aquí sustituyendo x1 (0), x2 (0), x1 (2), x2 (2) por los valores deseados del esta-
do inicial y final tendremos que
        
2 − 1 0 0 = 1 −1 + u(1) (8.2.16)
0 0 4 0 0 0 u(0)
    
2 1 −1 u(1)
=   (8.2.17)
0 0 0 u(0)
es decir,
2 = u(1) − u(0) (8.2.18)
y para u(1) = 0, se tiene u(0)=-2. Como
 
1 −1
MC =  (8.2.19)
0 0

y dado que el rango de la matriz de controlabilidad es 1 el sistema no es com-


pletamente controlable en estado. Aunque la condición de controlabilidad no se
cumple, si resolvemos el sistema de ecuaciones tenemos que la solución del siste-
ma de ecuaciones nos daría 2 = u(1) − u(0), es decir que si, por ejemplo, fijamos
u(1) = 0, entonces u(0) = −2. Aunque el sistema no cumple la condición de con-
trolabilidad el estado si es alcanzable desde el punto inicial que se ha considerado.

En este ejemplo se observa que si el sistema no es completamente controlable


existirán estados del sistema que no son alcanzables desde ese estado inicial, pero
8.2. Controlabilidad de un sistema 335

existirán otros que sí son alcanzables desde ese estado. En el ejemplo que hemos
visto, el estado [2 0]T es alcanzable desde el estado inicial [0 0]T , sin embargo
el estado [2 1]T no sería alcanzable desde el estado [0 0]T puesto que no tene-
mos ninguna acción de control que nos permita cambiar el valor de la variable de
estado x2 .

En general, en el caso de sistemas parcialmente controlables, habrá estados que


se puedan ubicar libremente en todo el espacio de estados y habrá estados que se
ubican en función de los primeros (son linealmente dependientes). ¿Qué estados
son libres y cuales son dependientes? Para ello hace falta calcular el rango de los
menores de la matriz Mc . En el caso del ejemplo dado por la ecuación 8.2.14, el
menor de Mc para el estado x1 es 1, mientras que el menor para el estado x2 es cero.
Esto implica que en este ejemplo x1 siempre es libre y x2 siempre es dependiente
de x1 .

Entrada u(k) vector


Veamos la controlabilidad para un sistema lineal de tiempo discreto invariante
en el tiempo con entrada vector. Supongamos que el sistema viene definido por la
siguiente ecuación de estado:

x(k + 1) = Gx(k) + H u(k) (8.2.20)

donde G : n × n, H : n × r , x : n × 1, u : r × 1.
En este caso la matriz de controlabilidad MC será una matriz n × nr , es decir
h i
MC = H G H . . . G n−1 H (8.2.21)

y el sistema de ecuaciones esta formado por n ecuaciones y nr incógnitas. Para que


el sistema tenga solución el rango de la matriz de controlabilidad debe ser el menor
entre n y nr , es decir n. Ahora bien, como el sistema tiene más incógnitas que
ecuaciones tenemos n(r − 1) grados de libertad para elegir los posibles valores de
las entradas de control que permiten pasar del estado inicial al final. Normalmente
se establece algún tipo de restricción adicional entre las variables de entrada o
algún criterio para elegir de entre todas las posibles las que nos interesan.

8.2.2. Controlabilidad de la salida


En el epígrafe anterior se ha comentado el concepto de controlabilidad de es-
tado. El hecho de que un sistema sea completamente controlable en estado no nos
garantiza que podamos controlar la salida del sistema, salvo en el caso en el que el
sistema tenga una única salida. En general cuando se diseña un sistema de control
lo que se busca es controlar la salida del sistema más que controlar el estado del
336 8. Control de sistemas por realimentación de estado

mismo. Por ello, es necesario realizar un análisis similar al anteriormente indicado


para la controlabilidad completa del estado, pero en este caso para la salida.

Definición 8.2.3: Se dice que un sistema de control de dimensión n es completa-


mente controlable en la salida si existe una entrada u definida entre [0, n − 1] tal
que es posible hacer pasar al sistema desde una salida inicial arbitraria y(0) a otra
salida final arbitraria y(n) en un periodo finito de tiempo (n periodos de muestreo).

Entrada u(k) escalar


Veamos la controlabilidad de salida para un sistema lineal de tiempo discreto
invariante en el tiempo con entrada de tipo escalar. Supongamos que el sistema
viene definido por las siguientes ecuaciones:

x(k + 1) = Gx(k) + Hu(k) (8.2.22)


y(k) = C x(k) (8.2.23)

donde G : n × n, H : n × 1, C : m × n , x : n × 1, u : 1 × 1, y : m × 1 y m ≤ n.
Recordando que la solución de la ecuación de estado para un sistema lineal de
tiempo discreto invariante era de la forma

X
n−1
n
x(n) = G x(0) + G n− j−1 H u( j)
j=0 (8.2.24)
= G n x(0) + G n−1 H u(0) + G n−2 H u(1) + . . . + H u(n − 1)

de donde tenemos que la salida del sistema tendrá la siguiente expresión

y(n) = C x(n)
X
n−1
= C G n x(0) + C G n− j−1 H u( j) (8.2.25)
j=0

y de aquí que

X
n−1
y(n) − C G n x(0) = C G n− j−1 H u( j)
j=0
 
u(n − 1) (8.2.26)
h i 
u(n − 2)
= CH n−1  
CG H . . . CG H  .. 
 . 
 
u(0)
8.2. Controlabilidad de un sistema 337

Dado que H es una matriz n × 1 y que G es n× n, que C es una matriz m × n,
la matriz de controlabilidad de la salida MC S = C H CG H . . . CG n−1 H
tendrá dimensiones m × n. En el sistema de ecuaciones 8.2.26 conocemos los es-
tados inicial y(0) y final y(n), y podemos calcular la matriz MC S . Para poder de-
terminar el vector de entradas de control se tiene que verificar que el rango de la
matriz MC S es m. A la matriz MC S se le denomina matriz de controlabilidad de la
salida.

Definición 8.2.4 (Condición de controlabilidad de la salida): La condición ne-


cesaria y suficiente para que un sistema sea completamente controlable en la salida
es que el rango de la matriz de controlabilidad de la salida sea m.

rango(MC S ) = m

Definición 8.2.5: La controlabilidad completa de estado implica controlabilidad


completa de la salida si y sólo si las m filas de la matriz C son linealmente inde-
pendientes.

Ejemplo 8.2.3: Dado el sistema definido por las ecuaciones siguientes


      
x1 (k + 1) = −1 0  x1 (k) + 1 u(k)
x2 (k + 1) 0 −2 x2 (k) 1
    
 y1 (k) = −1 1  x1 (k)
y2 (k) 1 −1 x2 (k)

determinemos si el sistema es completamente controlable en salida.


Solución:
Si obtenemos la matriz de controlabilidad de la salida de este sistema tenemos que:
 
h i −2 2 
MC S = C H C G H =  (8.2.27)
2 −2

cuyo rango es 1. Por lo que el sistema no es completamente controlable en la salida,


aunque el sistema es controlable en estado ya que
 
−2 −1
Mc = [H G H] =  
2 −2

y, por tanto rg(Mc ) = 2. Esto se podía haber detectado ya que las filas de la
matriz C no son linealmente independientes. En este caso, los dos menores de Mc
338 8. Control de sistemas por realimentación de estado

son distintos de cero lo que implica que podemos controlar cualquier estado. Sin
embargo, en la matriz de controlabilidad de salida Mcs , el menor de y1 es −2 y el
de la salida y2 es cero. Por lo que la salida y1 será controlable e y2 será linealmente
dependiente de la primera. Esto significa que podremos situar libremente una salida
(y1 ), pero la otra (y2 ) estará en función de la primera.

8.3. Observabilidad de un sistema

Un aspecto muy importante en los sistemas en el espacio de estados es la posi-


bilidad de estimar u observar el valor que toman las variables de estado que no son
medibles directamente. Dicha estimación o reconstrucción se realiza a partir de la
medida de la salida del sistema durante un cierto número mínimo de periodos de
muestreo y de los valores de la señal de control que se le introducen al sistema. Se
considera que la salida siempre es medible.

Sistema

u + x y
B x C
+

^x
Observador
del
estado del sistema

Fig. 8.2: Concepto de observador de estado

Supongamos un sistema definido por las siguientes ecuaciones:

x(k + 1) = Gx(k) + Hu(k) (8.3.1)


y(k) = C x(k) (8.3.2)

donde G : n × n, H : n × 1, C : m × n , x : n × 1, u : 1 × 1, y : m × 1 y m ≤ n.
La solución de la ecuación de estado para un sistema lineal de tiempo discreto
e invariante era
X
n−1
n
x(n) = G x(0) + G n− j−1 H u( j) (8.3.3)
j=0
8.3. Observabilidad de un sistema 339

y la salida del sistema tenía la siguiente expresión

X
n−1
y(n) = C G n x(0) + C G n− j−1 H u( j) (8.3.4)
j=0

En la ecuación 8.3.4 conocemos G, H y C y conocemos también la secuencia


de entradas que se le ha introducido al sistema u(0), . . . , u(n − 1) por lo que el
segundo término de la parte derecha de dicha expresión nos es completamente
conocido. Puesto que este término siempre es conocido, podemos simplificar un
poco el problema de determinar la observabilidad de un sistema limitándonos a
analizar el sistema no forzado, es decir con entrada de control cero.
Dicho de otro modo, si podemos determinar para el sistema no forzado cual
era el estado inicial de partida del sistema a partir de la observación de las salidas
del sistema, entonces podremos determinarlo también para el sistema sujeto a una
secuencia de entradas de control.

8.3.1. Observabilidad completa de estado


Definición 8.3.1: Un sistema se dice que es completamente observable si todo
estado inicial x(0) puede ser determinado a partir de la observación de la salida
y(k) del sistema en un número finito de intervalos de muestreo.

Considerando el sistema no forzado, las ecuaciones de este quedan reducidas a


las siguientes ecuaciones

x(n) = Gx(n − 1)
y(n − 1) = C x(n − 1) (8.3.5)

y aplicando recursivamente la expresión de la ecuación de estado obtenemos que


la salida del sistema será

y(n − 1) = C G n−1 x(0) (8.3.6)


De acuerdo con la definición de observabilidad, dada la secuencia de salidas
y(0), y(1), . . . , y(n − 1) un sistema será observable si es posible determinar a
partir de ellas el estado inicial x(0). Si expresamos las salidas en función del estado
inicial tenemos

y(0) = C x(0)
y(1) = C Gx(0)
..
.
y(n − 1) = C G n−1 x(0) (8.3.7)
340 8. Control de sistemas por realimentación de estado

y en forma matricial
   
 y(0)   C 
   
 y(1)   CG 
 = 
 ..   ..  x(0) (8.3.8)
 .   
   . 
y(n − 1) C G n−1
 T
A la matriz C C G . . . C G n−1 se le denomina matriz de observa-
bilidad, M O . Como G es una matriz n × n y C es m × n, la matriz M O =
 T
C C G . . . C G n−1 tiene dimensión mn × n. Por lo tanto, para que el sis-
tema de ecuaciones tenga solución dicha matriz M O tiene que tener rango n.

Definición 8.3.2 ( Condición de observabilidad): La condición necesaria y su-


ficiente para que un sistema sea observable es que el rango de la matriz de obser-
vabilidad sea n.
rango(M O ) = n
Una situación típica en la que un sistema no es completamente observable se
produce en los sistemas en los que existen cancelaciones polo-cero. Si observamos
en los polos y ceros del sistema la existencia de estas cancelaciones, esto nos in-
dicará que el sistema no será completamente controlable u observable. En el caso
de un sistema con una entrada y una salida el sistema será a la vez controlable
y observable si no se pueden efectuar cancelaciones polo-cero en la función de
transferencia.
Ejemplo 8.3.1: Dado el sistema definido por las ecuaciones siguientes
      
x1 (k + 1) = −1 0  x1 (k) + 1 u(k)
x2 (k + 1) 0 −2 x2 (k) 1
 
h i x (k)
y(k) = 0.5 1  1 
x2 (k)
determinar la observabilidad del mismo.
Solución:
Si obtenemos la matriz de observabilidad de estado del sistema tenemos que:
   
C   0.5 1
MO =  = (8.3.9)
CG −0.5 −2
cuyo rango es 2 por lo que el sistema será completamente observable.
8.4. Invarianza de la controlabilidad y observabilidad 341

8.4. Invarianza de la controlabilidad y observabilidad

Se ha visto anteriormente que un sistema admite múltiples representaciones


en el espacio de estados, recordemos las formas canónicas por limitarnos a las que
hemos comentado más extensamente. Una pregunta que surge de forma automática
es, si las condiciones de controlabilidad y observabilidad se mantienen ante un
cambio de base en la representación de estado utilizada, es decir, al pasar de una
forma canónica a otra. Para responder a esta cuestión, supongamos que realizamos
un cambio de base, caracterizado por la matriz de transformación T , no singular,
en la representación de estado

x(k + 1) = Gx(k) + H u(k)


y(k) = C x(k)
x(k) = T x 0 (k) (8.4.1)

con lo que tenemos una nueva representación de estado

x 0 (k + 1) = T −1 GT x 0 (k) + T −1 H u(k)
y(k) = C T x 0 (k) (8.4.2)

donde las nuevas matrices G 0 , H 0 , C 0 serán

G 0 (k + 1) = T −1 GT
H 0 (k) = T −1 H
C 0 (k) = C T (8.4.3)

y para esta nueva representación de estado la matriz de controlabilidad será


h i
M 0C = T −1
H T −1
GT T
G −1
H ... T −1 n−1
TT −1
H
h i
= T −1 H T −1 G H . . . T −1 G n−1 H
h i
= T −1 H G H . . . G n−1 H
= T −1 MC (8.4.4)

y puesto que T es una matriz no singular, el rango de la matriz de controlabilidad


M 0 C y de la matriz de controlabilidad del sistema original MC coinciden. Por lo
que si el sistema 8.4.1 es controlable, el sistema 8.4.2 en la nueva base también
será controlable.
Si hacemos una análisis similar para la observabilidad, tendremos que la matriz
342 8. Control de sistemas por realimentación de estado

de observabilidad del sistema 8.4.2 tendrá la siguiente expresión


 
 CT 
 
 C T T GT 
−1
M0O 
=  
.. 
 . 
 
−1 n−1
CT T G T
 
 CT 
 
 C GT 

=  
.. 
 . 
 
C G n−1 T
 
 C 
 
 CG 
= 
 ..  T

 . 
 
C G n−1
= MO T (8.4.5)

y dado que se ha tomado una matriz de transformación T no singular, y de forma


similar al caso de la controlabilidad, los rangos de las matrices de observabilidad
M 0 O y M O son iguales. Por tanto, aunque el sistema cambie de base, si el sistema
era observable seguirá siendo observable.
Es importante observar que lo contrario no tiene porque verificarse, es decir,
si el sistema es no observable, esto no implica que no exista ningún cambio de
base que nos conduzca a otra representación de estado observable. De hecho, si el
sistema es no observable (pero controlable) siempre nos es posible encontrar una
nueva representación de estado que sea observable. Lo mismo podemos decir para
la controlabilidad.

8.5. Principio de dualidad

Veamos qué relación existe entre la controlabilidad y la observabilidad. Supon-


gamos un sistema S1 lineal e invariante en el tiempo definido por

x(k + 1) = Gx(k) + H u(k)


y(k) = C x(k) (8.5.1)
8.5. Principio de dualidad 343

donde las diferentes matrices tienen dimensión: x : n × 1, u : r × 1, y : m × 1, G :


n × n, H : n × r, C : m × n. Y un sistema S2 , que denominaremos sistema dual
del S1 , definido por las siguientes ecuaciones
x 0 (k + 1) = G T x 0 (k) + C T u0 (k)
y0 (k) = H T x 0 (k) (8.5.2)
donde: x 0 : n × 1, u0 : m × 1, y0 : r × 1. El principio de dualidad debido a Kalman
dice lo siguiente.

Teorema 8.5.1 (Principio de dualidad): El sistema S1 es completamente con-


trolable en estado sí y sólo si el sistema S2 es completamente observable, y S1 es
completamente observable sí y sólo si el sistema S2 es completamente controlable
en estado.
Si observamos las matrices de controlabilidad y observabilidad del sistema S1
tenemos que
h i
MC = H G H . . . G n−1 H
 
 C 
 
 CG 
MO =   .. 
 (8.5.3)
 . 
 
C G n−1
y si ahora observamos las matrices de controlabilidad y observabilidad del sistema
S2 resulta lo siguiente
h i
M 0 C = C T G T C T . . . (G T )n−1 C T
 
 C 
 
 CG 
=  . 

 = MO
 .. 
 
n−1
CG
 
T
 H 
 
 T T
H G 
0
MO =   
.. 
 . 
 
H T (G n−1 )T
h i
= H GH ... G n−1
H = MC (8.5.4)
344 8. Control de sistemas por realimentación de estado

y como se puede observar M 0 O = MC y M 0 C = M O tal y como indica el principio


de dualidad.
Este principio de dualidad se ha utilizado aunque sin nombrarlo explícitamente
cuando se obtuvieron las representaciones canónicas de un sistema a partir de la
función de transferencia, donde la forma canónica controlable y la observable son
sistemas duales.

8.6. Control por realimentación de estado

Supongamos que queremos controlar un cierto sistema, en el que todas las va-
riables de estado están disponibles (medibles o accesibles) para ser utilizadas en la
realimentación del estado del sistema.

Teorema 8.6.1: Si un sistema es completamente controlable en estado, entonces


los polos en bucle cerrado del sistema pueden ser libremente situados en las po-
siciones p1 , p2 , . . . , pn que se deseen mediante una realimentación de estado con
una matriz K de ganancias adecuada.

Este esquema de control se muestra en la figura 8.3 hará que la ecuación carac-
terística del sistema realimentado tome la forma

(z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.1)
La elección de las posiciones deseadas de los polos se hace de forma que se
cumplan unas ciertas especificaciones de diseño. Esta técnica es aplicable sólo a
sistemas lineales invariantes en el tiempo. Veamos cómo podemos determinar el
valor de la matriz de ganancias que nos permite situar los polos del sistema reali-
mentado en el lugar deseado.
Esta técnica de control nos va a permitir situar los polos del sistema reali-
mentado en las posiciones que deseemos para que se cumplan ciertos requisitos
en cuanto a la respuesta dinámica del sistema. El mero hecho de poder situar los
polos en las posiciones que deseemos no nos garantiza que el sistema cumpla las
especificaciones de régimen permanente ya que esta técnica no permite modificar
las posiciones de los ceros del sistema por lo que posteriormente veremos como
ajustar la respuesta en régimen permanente del sistema.

8.6.1. Sistemas con entrada y salida escalar


Supongamos el sistema mostrado en la figura 8.3, las ecuaciones del mismo
son
x(k + 1) = Gx(k) + Hu(k)
(8.6.2)
y(k) = C x(k)
8.6. Control por realimentación de estado 345

r u x y
+ + -1
H z .I C
- +

Realimentación
del estado

Fig. 8.3: Realimentación del estado

donde G : n × n, H : n × 1, C : 1 × n , x : n × 1, u : 1 × 1 e y : 1 × 1.
Además, la señal de control al sistema viene dada por la siguiente expresión

u(k) = r(k) − K x(k) (8.6.3)


De las ecuaciones 8.6.2 y 8.6.3 tenemos que (siendo K de dimensión 1 × n)

x(k + 1) = Gx(k) + H[−K x(k) + r (k)] (8.6.4)


= [G − H K ]x(k) + Hr (k) (8.6.5)

Tomando transformada z, se tiene

z X(z) = (G − H K )X (z) + H R(z) (8.6.6)

por tanto,
(z I − G + H K )X (z) = H R(z) (8.6.7)
X(z) = (z I − G + H K )−1 H R(z) (8.6.8)
la salida tendrá la expresión

Y (z) = C[z I − G + H K ]−1 H R(z) (8.6.9)

de donde se tiene que la función de transferencia del sistema realimentado tendrá


la siguiente forma
Y (z)
F(z) = = C[z I − G + H K ]−1 H (8.6.10)
R(z)
346 8. Control de sistemas por realimentación de estado

en la ecuación 8.6.10 se puede observar que el denominador de la función de trans-


ferencia viene dado por el determinante de |z I −(G− H K )|. Por tanto, si deseamos
un cierto comportamiento dinámico del sistema, nos basta con ajustar las posicio-
nes de los polos del sistema en cadena cerrada. Para ello, es necesario determinar
en primer lugar las posiciones p1 , p2 , . . . , pn deseadas para los polos, con ello
determinamos la ecuación característica deseada y de aquí

|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) (8.6.11)
En la expresión 8.6.11 lo único que no se conoce son los valores de los coe-
ficientes de la matriz K , pero igualando los coeficientes del término del lado iz-
quierdo a los de la parte derecha de la expresión es posible resolver el sistema.
La condición necesaria y suficiente para poder resolver este sistema es que el
rango de la matriz de controlabilidad de estado sea n, es decir, que el sistema sea
totalmente controlable. Además, es fácilmente demostrable que si el sistema es
totalmente controlable la matriz (z I − G + H K ) es no singular.

8.6.2. Ajuste de las posiciones de los polos


Dado un sistema
x(k + 1) = Gx(k) + Hu(k) (8.6.12)
completamente controlable en estado, si realimentamos el estado de forma que
u(k) = r(k) − K x(k), para que los polos en bucle cerrado del sistema se sitúen
en las posiciones z = p1 , z = p2 , . . . , z = pn , basta con igualar las expresiones
características, es decir

|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) = z n +a1 z n−1 +. . .+an−1 z +an = 0


(8.6.13)
En la expresión de la izquierda tenemos un polinomio en z que será función
de los coeficientes de la matriz de realimentación de estado. Igualando dichos co-
eficientes a los de la ecuación característica deseada, obtendremos un sistema de n
ecuaciones con n incógnitas que resolviéndolo nos permite obtener los coeficientes
de la matriz de realimentación.

Ejemplo 8.6.1: Supongamos el sistema definido por las siguientes ecuaciones


     
x1 (k + 1) =  0 1  0
+ u(k) (8.6.14)
x2 (k + 1) −1 −0.5 1
 
x (k)
y(k) = [1 0]  1  (8.6.15)
x2 (k)
8.6. Control por realimentación de estado 347

y se desea determinar los valores de las ganancias de la matriz K de realimentación


de estado para que los polos en cadena cerrada del sistema estén en p1,2 = −0.5 ±
j0.5.

Solución:
Comprobemos en primer lugar que el sistema sea completamente controlable en
estado, para ello obtendremos la matriz de controlabilidad
 
h i 0 1 
MC = H G H =  (8.6.16)
1 −0.5

que tiene rango 2, por lo que el sistema es completamente controlable en estado.


Dado que el sistema es controlable es factible encontrar una realimentación de
estado que cumpla nuestras exigencias. De acuerdo con la ecuación 8.6.11 tenemos
que
|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.17)
que para nuestro caso concreto da la siguiente expresión

|z I − G + H K | = z 2 − z + 0.5 = 0 (8.6.18)

y sustituyendo en el primer término las matrices por sus valores y operando

z 2 + z(0.5 + k2 ) + (1 + k1 ) = z 2 − z + 0.5 = 0 (8.6.19)

en la que igualando los coeficientes de ambos polinomios obtenemos

k1 = −0.5
k2 = −1.5

y la matriz de realimentación de estado será K = [−0.5−1.5]. La respuesta del


sistema en cadena abierta y del sistema con la realimentación de estado diseñada
se muestra en la figura 8.4.

Determinación de las posiciones de los polos por transformación


En el caso en el que el sistema este representado en una forma que no sea
la forma canónica controlable el método de comparación de coeficientes puede
dar lugar a cálculos complejos para la obtención de las ganancias de realimenta-
ción, especialmente para sistemas de orden elevado. En este caso existe posibilidad
transformar el sistema a la forma canónica controlable y diseñar en esta nueva re-
presentación el regulador y después convertirlo de nuevo a la representación del
sistema que teníamos inicialmente.
348 8. Control de sistemas por realimentación de estado

2.5
(b)
y(k) 2

1.5
(a)
1

0.5

−0.5
0 5 10 15 20 25 30 35 40 45 50
Tiempo (ciclos de muestreo)

Fig. 8.4: Respuesta del sistema del ejemplo 8.4: (a) sin realimentación y (b) siste-
ma realimentado

Veamos como se realiza este proceso. Para ello, supongamos que se tiene un
sistema con la siguiente representación de estado,

x(k + 1) = Gx(k) + Hu(k) (8.6.20)


y(k) = C x(k) (8.6.21)

cuya matriz de controlabilidad viene dada por la siguiente expresión


h i
MC = H G H . . . G n−1 H (8.6.22)

y supongamos que aplicamos una transformación T que transforma al sistema a la


forma canónica controlable
x(k) = T x 0 (k) (8.6.23)
con lo que el nuevo sistema quedaría en la forma

x 0 (k + 1) = T −1 GT x 0 (k) + T −1 Hu(k) (8.6.24)


0
y(k) = C T x (k) (8.6.25)

Esta nueva representación tiene la siguiente matriz de controlabilidad, tal y


como se vio en 8.4.4,
h i
MC 0 = T −1 H G H . . . G n−1 H = T −1 MC (8.6.26)
8.6. Control por realimentación de estado 349

y de aquí se puede deducir que


T = MC MC−10 (8.6.27)
pudiéndose obtener la matriz de transformación T a partir de las dos matrices de
controlabilidad. Una vez que el sistema está en la forma canónica controlable y
verifica la condición de controlabilidad completa de estado, se diseña el regulador
por realimentación de estado. En esta representación tendremos que
|z I − G 0 + H 0 K 0 | = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.28)
e igualando los coeficientes podremos determinar la matriz de ganancias del re-
gulador K 0 . El sistema realimentado en la forma canónica controlable tendrá las
siguientes ecuaciones
x 0 (k + 1) = T −1 GT x 0 (k) + T −1 Hu(k) (8.6.29)
0 0
u(k) = −K x (k) + r (k) (8.6.30)
0
y(k) = C T x (k) (8.6.31)
y de aquí
x 0 (k + 1) = T −1 GT x 0 (k) − T −1 H K 0 x 0 (k) + T −1 Hr (k) (8.6.32)
−1 −1 0 0 −1
= (T GT − T H K )x (k) + T Hr (k) (8.6.33)
0
y(k) = C T x (k) (8.6.34)
Si ahora deshacemos la transformación, volviendo al sistema en la representación
inicial, para lo cual aplicamos x 0 = T −1 x, tendremos que
x(k + 1) = Gx(k) − H K 0 T −1 x(k) + Hr (k) (8.6.35)
0 −1
= (G − H K T )x(k) + Hr (k) (8.6.36)
y(k) = C x(k) (8.6.37)
y comparando con la ecuación característica de un sistema realimentado en la re-
presentación original
|z I − G + H K | = 0 (8.6.38)
tenemos que la matriz de ganancia de la realimentación expresada en el sistema de
representación original tendrá la forma
K = K 0 T −1 (8.6.39)
Una limitación importante a este método se produce en el caso de que el sistema
sea no-controlable y se pueda transformar a la forma canónica controlable. En este
caso, será posible determinar la matriz de ganancias K 0 para controlar el sistema
en la forma canónica controlable, pero la matriz de transformación T para pasar a
dicha forma canónica es singular por lo que no es posible obtener la inversa de la
transformación.
350 8. Control de sistemas por realimentación de estado

Sistema

r u x y
+ + -1
H z I C
- +

-1
T

x'
Realimentación
del estado
K'
u=-K'x'=-(KT)x'=-Kx

Fig. 8.5: Transformación de un sistema a otra representación de estado para con-


trolarlo.

Ejemplo 8.6.2: Supongamos el sistema definido por las siguientes ecuaciones

     
x1 (k + 1) = −0.5
0
+ u(k) 0 (8.6.40)
x2 (k + 1) 0 −1 1
 
x (k)
y(k) = [1 1]  1  (8.6.41)
x2 (k)

y se desea determinar los valores de las ganancias de la matriz K de realimentación


de estado para que los polos en cadena cerrada del sistema estén en p1,2 = z−0.5±
j0.5.

Solución:
Comprobemos en primer lugar que el sistema sea completamente controlable en
8.6. Control por realimentación de estado 351

estado, para ello obtendremos la matriz de controlabilidad


 
h i 0 0
MC = H G H =  (8.6.42)
1 −1

que tiene rango 1, por lo que el sistema es no es completamente controlable en


estado.
Dado que el sistema es no controlable en estado, si se quiere encontrar una rea-
limentación de estado que cumpla nuestras exigencias será necesario obtener una
representación de estado que sea controlable. En este caso, obteniendo la función
de transferencia del sistema tenemos que

z + 0.5
F(z) = C[z I − G]−1 H =
z2 + 1.5z + 0.5
y pasando de aquí a la forma canónica controlable tenemos que
     
0
x1 (k + 1) =  0 1  0
+ u(k) (8.6.43)
x20 (k + 1) −0.5 −1.5 1
 
0
x (k)
y(k) = [0 0.5]  1  (8.6.44)
x20 (k)

esta nueva representación tiene la siguiente matriz de controlabilidad


 
h i 0 1 
M 0C = H 0 G0 H 0 =  (8.6.45)
1 −1.5

que tiene rango 2 luego será controlable. Diseñaremos en esta nueva representación
de estado las ganancias de la matriz de realimentación K 0 que sitúan los polos del
sistema en cadena cerrada en las posiciones que se desean. De acuerdo con la
ecuación 8.6.11 tenemos que

|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.6.46)

que para nuestro caso concreto da la siguiente expresión

|z I − G 0 + H 0 K 0 | = z 2 − z + 0.5 = 0 (8.6.47)

y sustituyendo en el primer término las matrices por sus valores y operando

z 2 + z(1.5 + k20 ) + (0.5 + k10 ) = z 2 − z + 0.5 = 0 (8.6.48)


352 8. Control de sistemas por realimentación de estado

en la que igualando los coeficientes de ambos polinomios obtenemos

k10 = 0
k20 = −2.5

y la matriz de realimentación de estado será K 0 = [0 − 2.5]. En este caso no es


posible aplicar la inversa de la transformación T para obtener la matriz de ganan-
cias en la representación de estado inicial. Comprobémoslo, para ello obtenemos
la matriz de transformación que nos permite pasar de una representación a otra,
    
−1 0 0  1.5 1  0 0
T = MC MC0 =  = (8.6.49)
1 −1 1 0 0.5 1

y como el rango de T es 1 la matriz no es invertible y el sistema no es controlable.

8.6.3. Ajuste de la ganancia

r u x y
+ + -1
k0 H z .I C
- +

G
Planta

Fig. 8.6: Realimentación de estado con ajuste de ganancia

Supongamos el sistema mostrado en la figura 8.6, en el que se ha incluido


una ganancia k0 con el fin de ajustar la ganancia estática del sistema de forma
que tengamos la posibilidad de ajustar el error que comete el sistema en régimen
permanente. Las ecuaciones del sistema en este caso son

x(k + 1) = Gx(k) + Hu(k) (8.6.50)


y(k) = C x(k)

donde G : n × n, H : n × 1, C : 1 × n , x : n × 1, u : 1 × 1 e y : 1 × 1.
8.6. Control por realimentación de estado 353

La señal de control u(k) que se introduce al sistema viene dada por la siguiente
expresión

u(k) = k0r (k) − K x(k) (8.6.51)


De las ecuaciones 8.6.50 y 8.6.51 tenemos que

x(k + 1) = Gx(k) + H[−K x(k) + r (k)]


= [G − H K ]x(k) + Hk0r (k) (8.6.52)
Con lo que tendremos que la función de transferencia del sistema en este caso
tendrá la siguiente forma
Y (z)
F(z) = = C[z I − G + H K ]−1 Hk0 (8.6.53)
R(z)
En la ecuación 8.6.53 se puede observar que el denominador de la función de
transferencia viene dado por el determinante de la matriz [z I − (G − H K )] y en el
numerador nos aparece la ganancia k0 que se ha introducido en la cadena principal.
Por tanto, si deseamos un cierto comportamiento dinámico del sistema nos basta
con ajustar las posiciones de los polos del sistema en cadena cerrada y para ajustar
el error en régimen permanente, una vez fijados los polos se ajusta el valor de k0 .
Se especifican en primer lugar las posiciones p1 , p2 , . . . , pn deseadas para los
polos, y con ello determinamos la ecuación característica deseada
|z I − G + H K | = (z − p1 )(z − p2 ) . . . (z − pn ) (8.6.54)
y de aquí se deducen como en el caso anterior los valores de los coeficientes de la
matriz K . Una vez que se determina la matriz de realimentación de estado queda
por ajustar k0 .
Si suponemos que la entrada al sistema es R(z), la respuesta en régimen per-
manente tendrá la siguiente expresión

lim y(k) = lim (1 − z −1 )Y (z) = lim (1 − z −1 )R(z)F(z) (8.6.55)


k→∞ z→1 z→1

En la ecuación 8.6.55 si se conoce el valor deseado de la salida en régimen


permanente para la entrada R(z) introducida, es posible determinar el valor de la
ganancia k0 de la parte derecha de la expresión, con lo que tendríamos ajustado
también el régimen permanente.
Ejemplo 8.6.3: Supongamos el mismo sistema del ejemplo anterior (8.6.2), en
dicho ejemplo se ha determinado los valores de la ganancia de realimentación de
estado parar situar los polos en unas posiciones determinadas. Tratemos ahora de
conseguir que el error en régimen permanente ante entrada escalón sea cero.
354 8. Control de sistemas por realimentación de estado

Solución:
Veamos primero si el sistema cumple la especificación respecto al error en régimen
permanente. La función de transferencia del sistema en bucle cerrado
Y (z)
F(z) = = C[z I − G + H K ]−1 H (8.6.56)
R(z)
desarrollando esta expresión tenemos
 −1  
h i z −1  0 1
F(z) = 1 0  = 2 (8.6.57)
0.5 z − 1 1 z − z + 0.5

Si al sistema se le introduce en la entrada un escalón unitario, el valor de la


salida en régimen permanente será

lim y(k) = lim (1 − z −1 )R(z)F(z)


k→∞ z→1
z 1
= lim (1 − z −1 )
z→1 z − 1 z − z + 0.5
2

= 2 (8.6.58)

Es decir, para una entrada unitaria la salida en régimen permanente del sistema
nos da el valor 2. Si queremos que la salida del sistema en régimen permanente
tenga valor 1, introducimos una ganancia k0 en el sistema con lo que la función de
transferencia en bucle cerrado quedará como
Y (z)
F(z) = = C[z I − G + H K ]−1 Hk0 (8.6.59)
R(z)
y la respuesta en régimen permanente será

lim y(k) = lim (1 − z −1 )R(z)F(z)


k→∞ z→1
z k0
= lim (1 − z −1 )
z→1 z − 1 z 2 − z + 0.5
k0
= (8.6.60)
0.5
luego para que el valor de la respuesta del sistema en régimen permanente sea 1
implica que k0 = 0.5.

8.6.4. Modificación del tipo del sistema


En determinadas situaciones no es posible ajustar satisfactoriamente la res-
puesta dinámica y la respuesta en régimen permanente del sistema a la vez con
8.6. Control por realimentación de estado 355

estas dos técnicas que se han comentado. Esto pasa especialmente en sistemas de
orden bajo, donde los grados de libertad para elegir las posiciones de los polos en
cadena cerrada del sistema son limitados. Un caso típico donde se desea que la
salida del sistema siga a la entrada del mismo son los servosistemas. Si suponemos
un servosistema, en el que el sistema es de orden dos, únicamente disponemos de
dos posiciones de polos para ajustar. Si se ajustan las posiciones de los polos en
cadena cerrada para que la dinámica sea razonablemente rápida (como un sistema
de segundo orden con una pequeña sobreoscilación), elegiremos un par de polos
complejos conjugados. En este caso el tipo del sistema en cadena cerrada será cero,
por lo que probablemente no anulará el error en régimen permanente del sistema
ante entrada escalón y además ante entrada rampa se hará infinito. Si situásemos un
polo en el punto +1 del plano z (equivale a un integrador) en este caso anularíamos
el error en régimen permanente pues el sistema sería de tipo uno, pero entonces el
sistema se haría excesivamente lento lo que puede no ser deseable.
Si el sistema fuese de tercer orden, se podrían fijar las posiciones de los tres
polos de forma que: el tipo sea uno (con lo que el error en régimen permanente
ante una entrada en rampa se anularía) y tenga dos polos complejos conjugados
(que diesen una respuesta dinámica buena).
En el caso de que el orden del sistema no nos permita satisfacer las dos condi-
ciones de diseño simultáneamente, es posible elevar el tipo del sistema añadiendo
un integrador en la cadena principal del sistema (figura 8.7). Al añadir un integra-
dor al sistema, este aumenta el orden y el tipo del sistema. En definitiva hemos
añadido un grado de libertad más al sistema (una variable de estado adicional) que
hemos utilizado para poner un polo en el círculo unidad.

r + e + + u + x y
-1 v -1
z I kI H z I C
+ - +
-

G
Control Integral
Planta

Realimentación
de estado
K

Fig. 8.7: Realimentación de estado con integrador adicional

El sistema de la figura 8.7 tiene las siguientes ecuaciones,


356 8. Control de sistemas por realimentación de estado

x(k + 1) = Gx(k) − H K x(k) + Hki v(k)


v(k + 1) = v(k) + e(k)
e(k) = r (k) − y(k)
y(k) = C x(k) (8.6.61)

En esta expresión podemos reescribir v(k + 1) como

v(k + 1) = v(k) + r (k) − C x(k) (8.6.62)


Si consideramos ahora un nuevo vector de estado aumentado con v(k), tendre-
mos la siguiente expresión

      
 x(k + 1) =  G − H K Hki   x(k) + r (k) 0
v(k + 1) −C 1 v(k) 1
 
h i x(k)
y(k) = C 0   (8.6.63)
v(k)

En la figura 8.8 se puede ver un esquema equivalente al de la figura 8.7, en el


que se observa que la introducción del integrador en la cadena principal y la reali-
mentación de la salida del sistema constituyen en el fondo una realimentación de
estado pero a la que hemos añadido una variable de estado adicional que acumula
el error cometido entre la entrada y la salida del sistema. En este esquema, la for-
ma de diseño fuerza a que este polo adicional que se añade sea un integrador para
aumentar el tipo del sistema. En el caso de que el sistema tuviese un número sufi-
ciente de polos que pudiésemos asignar, se podría diseñar la matriz de ganancias
de realimentación del estado de forma que uno de ellos fuese un integrador, lo que
haría innecesario introducir un control integral adicional.

Ejemplo 8.6.4: Supongamos el mismo sistema del ejemplo (8.6.2) y (8.6.3). En


dichos ejemplos se ha determinado los valores de la ganancia de realimentación de
estado parar situar los polos en unas posiciones determinadas así como la ganancia
necesaria para que el error en régimen permanente ante entrada escalón fuese ce-
ro. Tratemos ahora de conseguir que el error en régimen permanente ante entrada
rampa sea también cero.

Solución: Veamos en primer lugar cual sería el error que se comete en régimen
permanente ante una entrada de tipo rampa para el sistema sin introducir el control
integral, y si es posible conseguir algún valor de ganancia k0 que anule dicho error.
8.6. Control por realimentación de estado 357

r + e + + u + x y
-1 v -1
z I kI H z I C
+ - +
-

G
Control Integral
Planta

Realimentación de estado

Fig. 8.8: Realimentación de estado con integrador adicional (2)

Si definimos el error en régimen permanente como la diferencia entre la sali-


da deseada (en este caso se busca que la salida siga a la entrada) y la salida real
tendremos que:
e(k) = r (k) − y(k) (8.6.64)
y tomando transformadas en z, tendremos que

E(z) = R(z) − Y (z) = R(z) − F(z)R(z) = (1 − F(z))R(z) (8.6.65)

Para ver el error en régimen permanente hacemos el límite de esta expresión


del error para t → ∞ y se obtiene el siguiente resultado

lim e(k) = lim (1 − z −1 )R(z)(1 − F(z))


k→∞ z→1
 
−1 T z −1 k0
= lim (1 − z ) 1− 2
z→1 (1 − z −1 )2 z − z + 0.5
T (0.5 − k0 )
= (8.6.66)
0
En esta expresión se puede apreciar que salvo para el caso k0 = 0.5 donde el
error quedaría indeterminado, en el resto de los casos el error en régimen perma-
nente tiende hacia infinito (en la práctica las posibilidades de ajustar k0 al valor 0.5
son remotas por lo que las pequeñas desviaciones harán que en la práctica el error
tienda a infinito siempre).
358 8. Control de sistemas por realimentación de estado

Supongamos ahora que se introduce un control integral en el sistema, man-


teniendo los valores que habíamos calculado para la matriz de ganancia K de la
realimentación de estado. Las matrices del sistema con control integral son

 
 
0 1 0
0
G = G − H K Hki   
= −1 −0.5 ki 
−C 1  
−1 0 1
 
0 h i
0  
H = 0 , C0 = 1 0 0
 
1

La función de transferencia del sistema quedará de la siguiente forma

F 0 (z) = C 0 [z I − G 0 ]−1 H 0
 −1  
h i z −1 0  0
   
= 1 0 0 1 z + 0.5 −ki  0
   
1 0 z−1 1
ki
=
(z − 1)(z 2 + 0.5z − 1) + ki
y al igual que antes, haciendo el límite para t → ∞ en la expresión del error en
régimen permanente se obtiene que

lim e(k) = lim (1 − z −1 )R(z)(1 − F 0 (z))


k→∞ z→1
 
−1 T z −1 ki
= lim (1 − z ) 1−
z→1 (1 − z −1 )2 (z − 1)(z 2 − z + 0.5) + ki
0.5T
= (8.6.67)
ki
en este caso se aprecia que el error si bien no se anula completamente se puede
hacer muy pequeño muestreando el sistema con un periodo T pequeño y haciendo
grande el valor de ki .

8.6.5. Sistemas con entrada vector


Hasta este momento hemos considerado el problema de diseñar una realimen-
tación de estado de forma que los polos en cadena cerrada del sistema se sitúen en
unas posiciones determinadas previamente para el caso de sistemas con entrada de
8.6. Control por realimentación de estado 359

control de tipo escalar. En el caso de que la entrada de control al sistema sea un


vector tenemos mucha más libertad para elegir las señales de control para controlar
el sistema. Recordemos que, mientras que la matriz de controlabilidad tenía dimen-
siones n × n para sistemas con entrada escalar, para el caso de entrada vectorial las
dimensiones eran n × nr (suponiendo que el estado tiene dimensiones n × 1 y la
entrada de control r × 1).
Veamos un ejemplo muy simple para ilustrar esta situación.

Ejemplo 8.6.5: Supongamos el sistema definido por las siguientes ecuaciones


       
x1 (k + 1) =  0 1  x1 (k) 0
+
0  u 1 (k)
(8.6.68)
x2 (k + 1) −0.5 −0.5 x2 (k) 1 0.25 u 2 (k)

y se desean determinar los valores de las ganancias de la matriz K (de dimensión


2×2) de realimentación de estado para que los polos en cadena cerrada del sistema
estén en p1 = 0.5 ± j0.5.
Solución: Comprobemos en primer lugar que el sistema sea completamente con-
trolable en estado, para ello obtendremos la matriz de controlabilidad
 
0 0 1 0.25 
MC = [H|G H] =  (8.6.69)
1 0.25 −0.5 −0.125

que tiene rango 2 por lo que el sistema es completamente controlable en estado.


Puesto que se desea que los polos del sistema en cadena cerrada estén en p1 =
0.5 − j0.5 y p1 = 0.5 + j0.5, tendremos que igualar la ecuación característica
del sistema en cadena cerrada a la definida por los polos p1 y p2 . Dando como
resultado da la siguiente expresión

|z I − G + H K | = z 2 − z + 0.5 = 0 (8.6.70)

y sustituyendo en el primer término las matrices por sus valores y operando

z 2 + z(0.5 + k12 − 0.25k22 ) + 0.5 + k11 + 0.25k21 = z 2 − z + 0.5 = 0 (8.6.71)

en la que igualando los coeficientes de ambos polinomios obtenemos

k12 + 0.25k22 = −1.5


k11 + 0.25k21 = 0 (8.6.72)

como se puede observar tenemos dos ecuaciones y cuatro incógnitas, luego te-
nemos dos grados de libertad a la hora de elegir los coeficientes de la matriz de
ganancias de la realimentación. Si tomamos, por ejemplo, k12 = k21 = 1 entonces
360 8. Control de sistemas por realimentación de estado

tendremos que k22 = −10 y k11 = −0.25. Con lo que la matriz de realimentación
de estado será
 
−0.25 1
K = 
1 −10

8.7. Diseño de observadores de estado

Ocurre con una cierta frecuencia que las variables de estado de un sistema
o una parte de ellas no son medibles (o accesibles). De hecho es frecuente que
únicamente la variable de salida del sistema sea medible, o que el sensor necesario
para medir una cierta variable tiene que desecharse por su alto coste económico,
o por otro tipo de razones. En todos estos casos resulta necesario estimar aquellas
variables de estado que no son medibles directamente. La estructura genérica de
un observador de estado responde al esquema mostrado en la figura 8.9.

Sistema

u(k) + x(k) y(k)


H -1
z I C
+

Observador
del
estado del sistema

^x(k)

Fig. 8.9: Sistema con observador del estado

Puesto que se está suponiendo que las variables de estado no son accesibles o
medibles, la única información que podemos utilizar para determinar el estado en
el que está el sistema son las entradas que se le suministran y las salidas con las que
responde. En el caso de que ninguna de las variables de estado sea medible nece-
sitaremos que el observador de estado estime todas ellas, a este tipo de observador
se le denomina observador de orden completo.
8.7. Diseño de observadores de estado 361

8.7.1. Observador de orden completo


Una primera idea para el diseño de un observador del estado de un sistema po-
dría consistir en incluir en el observador un modelo matemático (lo más completo
posible) del sistema e introducir como entradas al observador las entradas de con-
trol que se le van suministrando al sistema real (fig. 8.10). Este primer esquema
tiene tres defectos básicos:

Para que este esquema funcionase necesitaríamos conocer el estado inicial


en el que está el sistema, ya que de otro modo evolucionará de forma distinta.

El segundo problema del esquema de observador propuesto se debe a que


las matrices G, H y C del sistema físico real no se conocen con exactitud,
sino que suelen ser estimaciones de las mismas obtenidas por algún método
de identificación o de modelado del sistema. Esto implica que el observador
diseñado tendrá pequeñas desviaciones con respecto al sistema real. Estas
desviaciones se irán acumulando en el tiempo, haciendo que pasado un cier-
to periodo de tiempo, el estado estimado no se corresponda con el estado
verdadero del sistema.

El tercer problema se debe a las perturbaciones a las que el sistema real está
sometido y que no son medibles. En esta situación y aunque las matrices
de sistema que incluimos en el observador sean las verdaderas, el efecto de
las perturbaciones haría que el estado que estima el observador y el real no
coincidan al cabo de un cierto tiempo.

Observador
del
estado del sistema
u(k) ^
y(k)
+ -1
H z I C
+

^
x(k)

Fig. 8.10: Observador de orden completo del estado


362 8. Control de sistemas por realimentación de estado

Debemos tener en cuenta en el diseño algún mecanismo que nos permita mo-
dificar el estado estimado por el observador cuando el estado del observador no
coincida con el del sistema real. Puesto que el estado del sistema real no lo pode-
mos medir para compararlo con el estimado por el observador, lo que se hace es
comparar la salida estimada del sistema con la salida del sistema real y el error se
utiliza para modificar el estado tal y como se muestra en la figura 8.11. Es decir
introducimos una realimentación del error de estimación en el observador.
Para que sea posible diseñar un observador, un requisito previo imprescindible
es que se pueda estimar matemáticamente el estado en un cierto instante de tiempo.
Tal y como se vio cuando se introdujo el concepto de observabilidad de un sistema,
este es un requisito previo para que podamos diseñar un observador.

Definición 8.7.1: La condición necesaria y suficiente para poder observar las va-
riables de estado es que se verifique la condición de observabilidad del sistema.

x ( k )
y
( k )

u ( k ) y
( k )
+

x ( k )
+ +

H C

- 1

+ z I

+ -

( k )

K e

O b s e r v a d o r

Fig. 8.11: Observador del estado

Función de transferencia del observador


El observador de la figura 8.11 tiene la siguiente dinámica

x̂(k + 1) = G x̂(k) + K e e(k) + H u(k)


ŷ(k) = C x̂(k) (8.7.1)
e(k) = y(k) − ŷ(k)
8.7. Diseño de observadores de estado 363

tomando transformadas z en las expresiones anteriores tenemos que


z X̂(z) = G X̂(z) + K e E(z) + HU(z) (8.7.2)
Ŷ (z) = C X̂(z) (8.7.3)
E(z) = Y (z) − Ŷ (z) (8.7.4)
y de aquí tenemos
z X̂(z) = (G − K e C) X̂(z) + HU(z) + K e Y (z) (8.7.5)
o bien
X̂(z) = [z I − G + K e C]−1 HU(z) + [z I − G + K e C]−1 K e Y (z) (8.7.6)

S i s t e m a

u ( k ) x ( k ) y ( k )
( k )

H
- 1
C

+ z I

y ( k )

u ( k )

x ( k )

y ( k )

x ( k ) +

+ +

H C
- 1

+ z I

+ -

( k )

K e

O b s e r v a d o r

Fig. 8.12: Sistema con observador completo y realimentación del estado

De la ecuación 8.7.6 se deduce que el observador tiene como función de trans-


ferencia la siguiente expresión:
 
h i U(z)
X̂(z) = [z I − G + K e C]−1 H [z I − G + K e C]−1 K e   (8.7.7)
Y (z)
364 8. Control de sistemas por realimentación de estado

y la ecuación característica del observador viene dada por la siguiente ecuación

|z I − G + K e C| = 0 (8.7.8)
De la ecuación 8.7.8 se deduce que es necesario diseñar la ganancia de reali-
mentación en el observador K e de forma que la dinámica del mismo sea adecuada
para el sistema que estamos observando. Tendremos que diseñar esta ganancia del
observador de forma que la dinámica del mismo sea más rápida que la del sistema.
Si no se hace así, se tendrá un error muy importante entre los valores estimados y
los reales, lo que hará que la regulación posterior del sistema funcione mal.

Error cometido por el observador


Las ecuaciones 8.7.1 nos muestran la dinámica del observador. Sin embargo,
más que la dinámica del observador, lo que nos interesa es el error cometido por
el observador. Este error se define como la diferencia entre el valor estimado del
estado que nos da el observador y el valor verdadero del estado,

x̃(k) = x(k) − x̂(k) (8.7.9)

si formulamos la expresión del error de estimación de estado en el instante k + 1


obtenemos que

x̃(k + 1) = x(k + 1) − x̂(k + 1)


= Gx(k) + H u(k) − [G − K e C] x̂(k) − H u(k) − K e C x(k)
= (G − K e C)[x(k) − x̂(k)]
= (G − K e C) x̃(k) (8.7.10)

En la expresión 8.7.10 se aprecia que la dinámica del error viene determinada


por los autovalores de la matriz G − K e C. Resulta conveniente que los autovalores
de esta matriz estén dentro de la zona estable, que para los sistemas de tiempo
discreto es el círculo de radio unidad. Además es conveniente que la dinámica del
error sea muy rápida, de forma que ante una variación brusca en el estado (por
una perturbación por ejemplo) el error se anule lo antes posible. De esta forma el
observador seguirá fielmente el estado del sistema.
Sin embargo, es necesario tener en cuenta que, cuando se conectan el observa-
dor y la realimentación de estado, la matriz K e aparece también en el numerador
de la función de transferencia. Esto implica que, si el sistema esta sometido a per-
turbaciones en la salida y/o ruido en la medida, este ruido es amplificado. Desde el
punto de vista de diseño del observador, la elección de K e es un compromiso entre
la rapidez de adaptación del observador a los cambios de estado y la sensibilidad
al ruido del sistema y de medida.
8.7. Diseño de observadores de estado 365

Diseño de la ganancia del observador por comparación de


coeficientes
El diseño de la ganancia del observador se hace de forma similar al visto para
la realimentación de estado, es decir se determina la ganancia del observador K e de
forma que la ecuación característica de del mismo tenga los polos en las posiciones
deseadas p1 , p2 , . . . , pn .

|z I − G + K e C| = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.7.11)
Ejemplo 8.7.1: Supongamos el sistema definido por las siguientes ecuaciones
     
x1 (k + 1) =  0 1  0
+ u(k) (8.7.12)
x2 (k + 1) −1 −0.5 1
 
h i x (k)
y(k) = 1 0  1  (8.7.13)
x2 (k)
y se desea diseñar un observador de estado para este sistema, teniendo en cuenta
que se han ajustado los valores de las ganancias de la matriz K de realimentación de
estado para que los polos en cadena cerrada del sistema estén en p1 = z−0.5− j0.5
y p1 = z − 0.5 + j0.5.
Solución:
Comprobemos en primer lugar que el sistema sea completamente observable en
estado, para ello obtendremos la matriz de observabilidad
   
C 1 0
MO =  =  (8.7.14)
CG 0 1
que tiene rango 2, luego el sistema es observable. Dado que nos interesa que la
dinámica del error cometido por el observador sea lo más rápida posible, haremos
que los polos del observador estén situados en el origen (esta respuesta se conoce
como respuesta de tiempo mínimo, o en anglosajón dead-beat). Por lo tanto
|z I − G + K e C| = z 2 = 0 (8.7.15)
es decir
     
h i
z 0
 − 0 1  ke1 
+ 2
1 0 =z =0 (8.7.16)

0 z −1 −0.5 ke2
y de aquí obtenemos
z 2 + z(ke1 + 0.5) + (0.5ke1 + ke2 + 1) = z 2 = 0 (8.7.17)
e igualando los coeficientes obtendremos que ke1 = −0.5 y ke2 = −1.25
366 8. Control de sistemas por realimentación de estado

Diseño de la ganancia del observador por transformación


En el caso en el que el sistema este representado en una forma que no sea la for-
ma canónica observable el método de comparación de coeficientes puede dar lugar
a cálculos complejos para la obtención de las ganancias de realimentación, espe-
cialmente para sistemas de orden elevado. En este caso existe posibilidad transfor-
mar el sistema a la forma canónica observable y diseñar en esta nueva representa-
ción el observador y después convertirlo de nuevo a la representación del sistema
que teníamos inicialmente.
Para ello, supongamos que se tiene un sistema con la siguiente representación
de estado,

x(k + 1) = Gx(k) + Hu(k) (8.7.18)


y(k) = C x(k) (8.7.19)

y el observador de orden completo para esta representación viene expresado por

x̂(k + 1) = G x̂(k) + H u(k) + K e ( y(k) − ŷ(k))


ŷ(k) = C x̂(k) (8.7.20)

y transformando la ecuación queda

x̂(k + 1) = (G − K e C) x̂(k) + H u(k) + K e y(k) (8.7.21)

que es la expresión definitiva del observador de orden completo. De la expresión


8.7.21, la relación de x̃(k + 1) y x̃(k) y considerando x̃(k) = x(k) − x̂(k) se tiene

x̃(k + 1) = (G − K e C) x̃(k) (8.7.22)

cuya ecuación característica es

|z I − G + K e C| = 0 (8.7.23)

Al igual que para el caso del diseño de la realimentación de estado, es posible


transformar el sistema a otra forma canónica, normalmente a la observable, diseñar
aquí el observador y convertirlo de nuevo a la representación original.
Para el sistema en la representación original la matriz de observabilidad es
 
 C 
 
 CG 
MO =  . 

 (8.7.24)
 .. 
 
C G n−1
8.7. Diseño de observadores de estado 367

y supongamos que aplicamos una transformación T que transforma al sistema a la


forma canónica observable
x(k) = T x 0 (k) (8.7.25)
con lo que el nuevo sistema quedaría en la forma
x 0 (k + 1) = T −1 GT x 0 (k) + T −1 Hu(k) (8.7.26)
0
y(k) = C T x (k) (8.7.27)
La relación entre las matrices de observabilidad de ambas representaciones
venía dada por la expresión 8.4.5
M 0 O = MO T (8.7.28)
y de aquí que
−1
T = M 0 O MO (8.7.29)
pudiéndose obtener la matriz de transformación T a partir de las dos matrices de
observabilidad. Una vez que el sistema esta en la forma canónica observable y
verifica la condición de observabilidad completa de estado, se diseña el observador
de estado. En esta nueva representación tendremos que
|z I − G 0 + K 0 e C 0 | = (z − p1 )(z − p2 ) . . . (z − pn ) = 0 (8.7.30)
e igualando los coeficientes podremos determinar la matriz de ganancias del ob-
servador K 0 e . Si aplicamos la transformación inversa T −1 al sistema y x̃(k) =
x(k) − x̂(k) se tiene
x̃ 0 (k + 1) = (G 0 − K 0 e C 0 ) x̃ 0 (k)
y(k) − ŷ(k) = C 0 x̃ 0 (k)
para volver a la representación original aplicamos x 0 = T −1 x, y recordando que
G 0 = T −1 GT y C 0 = C T , obtenemos que
x̃(k + 1) = (G − T K 0 e C) x̃(k)
y(k) − ŷ(k) = C x̃(k)
Y comparando ahora con la expresión del modelo de error de estimación en
el estado en el sistema original tenemos que la matriz de ganancia del observador
expresada en el sistema de representación original tendrá la forma
Ke = T K 0e (8.7.31)
Una limitación importante a este método se produce en el caso de que el sistema
sea no-observable y se pueda transformar a la forma canónica observable. En este
caso, será posible determinar la matriz de ganancias K 0 e para observar el sistema
en la forma canónica observable, pero la matriz de transformación T para pasar a
dicha forma canónica es singular por lo que no es posible obtener la inversa de la
transformación.
368 8. Control de sistemas por realimentación de estado

8.7.2. Comportamiento conjunto del sistema realimentado


con el observador
Las ecuaciones 8.7.1 nos muestran la dinámica del error que comete el obser-
vador. Desde un punto de vista práctico nos interesa conocer como se comporta
la dinámica del sistema al introducir el observador en el lazo de realimentación.
Recordando que las ecuaciones del sistema y la señal de realimentación son,

x(k + 1) = Gx(k) + H u(k)


y(k) = C x(k)
u(k) = −K x̂(k) (8.7.32)

introduciendo la expresión de la señal de realimentación en la ecuación de estado,


y sumando y restando el término H K x(k) en dicha expresión obtenemos que

x(k + 1) = Gx(k) − H K x̂(k)


= [G − H K ]x(k) + H K [x(k) − x̂(k)] (8.7.33)

sustituyendo x(k) − x̂(k) por x̃(k) nos queda lo siguiente

x(k + 1) = [G − H K ]x(k) + H K x̃(k) (8.7.34)

teniendo en cuenta ahora que la dinámica del error de estimación de estado come-
tido por el observador venía dada por

x̃(k + 1) = [G − K e C] x̃(k) (8.7.35)

combinando las expresiones de la ecuación de estado del sistema realimentado


8.7.34 y la ecuación de estado del error de estimación de estado 8.7.35 en un único
modelo de estado, tendremos
    
 x(k + 1) =  G − H K H K   x(k)
(8.7.36)
x̃(k + 1) 0 G − Ke C x̃(k)

La ecuación característica del sistema con realimentación y observador se ob-


tiene de 8.7.36 y vendrá dada por la siguiente expresión


z I − G + H K −H K
=0 (8.7.37)

0 z I − G + Ke C
de esta última expresión se puede observar que la ecuación característica del
sistema se puede escribir en la forma

|z I − G + H K | . |z I − G + K e C| = 0 (8.7.38)
8.7. Diseño de observadores de estado 369

La expresión 8.7.38 nos dice que la ecuación característica del sistema con rea-
limentación de estado y observador es el producto de las ecuaciones características
del sistema realimentado y del observador de estado. Dicho en otras palabras, que
son independientes, lo que permite que se diseñen de forma independiente y pos-
teriormente sean combinados. Hay que tener en cuenta que la dinámica global del
sistema se complica puesto que ahora además de los polos del sistema realimenta-
do tendremos los que añade el observador de estado. Para que estos no influyan en
la dinámica del sistema deben amortigüarse rápidamente, es decir deben de estar
situados próximos al origen o en él si se desea que el observador elimine el error de
estimación rápidamente de forma que no influya de forma sustancial en la dinámica
global del sistema.
Se diseñará en primer lugar la ganancia de realimentación de estado y en fun-
ción de donde se hayan situado los polos del sistema realimentado se determinarán
unas posiciones adecuadas para el observador. Por tanto el diseño se realizará en
dos pasos.

8.7.3. Observador de orden reducido


Los estimadores de estado que hemos diseñado anteriormente tenían como ob-
jetivo la estimación o reconstrucción de todas las variables de estado del sistema.
Sin embargo, existen una serie de problemas donde algunas de las variables de es-
tado pueden ser medidas con precisión. En estos casos, donde podemos medir las
variables directamente, cabe preguntarse si es necesario hacer una reconstrucción
completa del estado. Este tipo de problemas no requiere hacer una reconstrucción
completa del estado, sino que basta con estimar las variables de estado que no
son medibles. Esto ocurre sobre todo cuando parte de las variables de estado del
sistema son variables de salida.
A estos tipos de estimadores u observadores se les denomina observadores de
orden reducido, y si el orden del observador es el mínimo posible se le denomina
observador de orden mínimo (Fig.8.13).
Supongamos que en el modelo del sistema tenemos que una parte de las varia-
bles de estado son medibles xm y otra parte de las variables no xn . Si dividimos el
vector de estado x en dos submatrices, el modelo de estado del sistema nos queda
de la siguiente forma
      
 xm (k + 1) =  G mm G mn   xm (k) +  Hm  u(k)
xn (k + 1) G nm G nn xn (k) Hn
 
h i x (k)
y(k) = I O  m  (8.7.39)
xn (k)
si esta expresión matricial la ponemos en forma de ecuaciones tenemos
370 8. Control de sistemas por realimentación de estado

S i s t e m a

x ( k )
u ( k ) x ( k ) y ( k ) =
r ( k )

+
+

H
- 1
C

+ z I

x ( k )

u ( k )

x ( k )

x ( k )

O b s e a d o

r v r

e d i d o

r u c

x ( k )

Fig. 8.13: Observador de orden reducido

xm (k + 1) = G mm xm (k) + G mn xn (k) + Hm u(k) (8.7.40)


xn (k + 1) = G nm xm (k) + G nn xn (k) + Hn u(k) (8.7.41)

De la ecuación 8.7.40 podemos medir o conocer todos los términos salvo el


término en xn (k) de la parte derecha de la expresión. Si separamos este término la
ecuación nos queda

xm (k + 1) − G mm xm (k) − Hm u(k) = G mn xn (k) (8.7.42)

y la ecuación 8.7.41 podemos reescribirla agrupando entre corchetes los términos


medibles

xn (k + 1) = G nn xn (k) + [G nm xm (k) + Hn u(k)] (8.7.43)


Si comparamos las ecuaciones 8.7.42 y 8.7.43 con las de un sistema ficticio
genérico de la forma

x 0 (k + 1) = G 0 x 0 (k) + H 0 u0 (k) (8.7.44)


0 0 0
y (k) = C x (k) (8.7.45)
8.7. Diseño de observadores de estado 371

de forma que
x 0 (k) = xn (k)
y0 (k) = xm (k + 1) − G mm xm (k) − Hm u(k) (8.7.46)
0
G = G nn
0 0
H u (k) = G nm xm (k) + Hn u(k)
C 0 = G mn
Si para el sistema 8.7.44 un observador de estado tiene la forma 8.7.21, enton-
ces
x̂ 0 (k + 1) = (G 0 − K e C 0 ) x̂ 0 (k) + H 0 u0 (k) + K e y0 (k) (8.7.47)
sustituyendo aquí las matrices y vectores por las expresiones completas 8.7.46 nos
queda que el observador para la parte no medible del sistema tiene la siguiente
ecuación
x̂n (k + 1) = (G nn − K e G mn ) x̂n (k) + G nm xm (k) + Hn u(k)
+K e [xm (k + 1) − G mm xm (k) − Hm u(k)] (8.7.48)
y en el diseño este observador de orden mínimo, tendremos que ajustar la matriz
K e de forma que los polos de la ecuación característica estén en unas posiciones
determinadas por

|z I − (G nn − K e G mn )| = 0 (8.7.49)

Ejemplo 8.7.2: Supongamos el sistema formado por dos integradores sucesivos,


con un periodo de muestreo de 0.1 segundos, definido por las siguientes ecuaciones
     
x1 (k + 1) = 1 0.1 + 0.01 u(k) (8.7.50)
x2 (k + 1) 0 1 0.1
 
h i x (k)
y(k) = 1 0  1  (8.7.51)
x2 (k)
dado que la variable de salida es medible y coincide con una de las variables de
estado, se desea diseñar un observador de estado para estimar el valor de la otra
variable.

Solución:
Comprobemos en primer lugar que el sistema sea completamente observable, para
ello obtendremos la matriz de observabilidad
   
C  1 0 
MO =  = (8.7.52)
CG 1 0.1
372 8. Control de sistemas por realimentación de estado

que tiene rango 2, luego es observable. Como se ha indicado que hay una variable
de estado medible y otra no, las dimensiones de las submatrices del estado no
medible y de los medibles son: G nn : 1 × 1 y G mm : 1 × 1. Estas submatrices son

G mm = 1, G mn = 0.1, G nm = 0, G nn = 1

Por lo tanto, la ecuación característica del observador de orden reducido tendrá


orden 1. Y si buscamos que la respuesta del observador sea lo más rápida posible,
haremos que el polo de esta ecuación característica esté en el origen.

|z I − (G nn − K e G mn )| = z = 0 (8.7.53)

y sustituyendo en la expresión por las submatrices correspondientes, tendremos

z − (1 − 0, 1ke ) = z = 0 (8.7.54)

de donde se tiene que el valor de ke = 10.


Nótese que este desarrollo es cierto si la matriz de salida C = [I O]. Si no fuera
así, habría que efectuar una transformación para poner la matriz C en la forma
adecuada, realizar el cálculo de K e según lo expuesto, y posteriormente devolver
el sistema a su estado inicial.

8.8. Observador óptimo del estado

Supongamos que tenemos un sistema sometido a ruido en el sistema y a rui-


do de medida, representado en el espacio de estados en tiempo discreto por las
siguientes ecuaciones

x(k + 1) = Gx(k) + H u(k) + v1 (k) (8.8.1)


y(k) = C x(k) + v2 (k) (8.8.2)

donde:

v1 (k) es un ruido blanco con una distribución de probabilidad normal con


media cero y covarianza conocida R1 , es decir v1 ∼ N (0; R1 ). Es decir,
E[v1 ] = 0 y E[v1 v1T ] = R1 .

v2 (k) es un ruido blanco con una distribución de probabilidad normal con


media cero y covarianza conocida R2 , es decir v2 ∼ N (0; R2 ). Es decir,
E[v2 ] = 0 y E[v2 v2T ] = R2 .

Supondremos además que E[v1 v2T ] = 0. Es decir, los ruidos son indepen-
dientes.

R1 y R2 son matrices semidefinidas positivas.


8.8. Observador óptimo del estado 373

( k )

( k )

S i s t e m a

u ( k ) x ( k )
y ( k )
+
+

H
- 1 C

+ z I

y ( k )
x ( k )

u ( k )

y ( k )

x ( k ) +

+ +

H C
- 1

+ z I

+ -

( k )

K e

O b s e r v a d o r

Fig. 8.14: Observador de estado de un sistema sometido a perturbaciones

Supondremos además que el modelo de estado es controlable y observable.


Debido al efecto del ruido de medida y del ruido del sistema (figura 8.14) el
observador de estado que hemos visto hasta el momento podría no dar unas pres-
taciones adecuadas. Resulta por ello deseable que el observador de estado que di-
señemos optimice algún tipo de criterio de forma que se mejore el funcionamiento
del mismo, para lo que se propone que K e varíe con el tiempo k.
La estructura que supondremos para el estimador de estado es la misma que
para el observador de estado completo (, es decir 8.7.20)

x̂(k + 1) = G x̂(k) + H u(k) + K e (k)[ y(k) − ŷ(k)]


= G x̂(k) + H u(k) + K e (k)[ y(k) − C x̂(k)] (8.8.3)

Si denominamos x̃(k) = x(k) − x̂(k) al error de reconstrucción, entonces la


dinámica del error de reconstrucción es la siguiente
374 8. Control de sistemas por realimentación de estado

x̃(k + 1) = x(k + 1) − x̂(k + 1)


= Gx(k) + H u(k) + v1 (k) − G x̂(k) − H u(k) − K e [ y(k) − C x̂(k)]
= G x̃(k) + v1 (k) − K e (k)[ y(k) − C x̂(k)]
= G x̃(k) + v1 (k) − K e (k)[x(k) + v2 (k) − C x̂(k)]
= (G − K e (k)C) x̃(k) + v1 (k) − K e (k)v2 (k) (8.8.4)

Si calculamos la esperanza del error de reconstrucción E[ x̃(k + 1)] obtenido a


partir de la expresión 8.8.4 tendremos

E[ x̃(k + 1)] = E[(G − K e (k)C) x̃(k) + v1 (k) − K e (k)v2 (k)] (8.8.5)

Y si al término de ruido lo denominamos w(k) = v1 (k) − K e (k)v2 (k), se puede


observar fácilmente que su valor medio es cero, puesto que los ruidos del sistema
y de medida se habían supuesto como ruidos blancos de media cero, luego

E[w(k)] = E[v1 (k) − K e (k)v2 (k)]


= E[v1 (k)] − K e (k)E[v2 (k)]
= 0 (8.8.6)

y su covarianza tiene la forma

E[w(k + 1)w T (k + 1)] = E[(v1 (k) − K e (k)v2 (k))(v1 (k) − K e (k)v2 (k))T ]
= K e (k)E[v2 (k)v2T (k)]K eT (k) − E[v1 (k)v2T (k)K eT (k)]
−E[K e (k)v2 (k)v1T (k)] + E[v1 (k)v1T (k)]
= K e (k)E[v2 (k)v2T (k)]K eT (k) + E[v1 (k)v1T (k)]
= K e (k)R2 K eT (k) + R1 (8.8.7)

El objetivo que perseguimos es determinar una ganancia de realimentación K e


en el observador de forma que se minimice la varianza del error de estimación, la
cual denominaremos P(k) y que corresponde a la siguiente expresión

P(k) = E[( x̃(k) − E[ x̃(k)])( x̃(k) − E[ x̃(k)])T ]


= E[ x̃(k) x̃ T (k)] − E[ x̃(k)E[ x̃ T (k)]] −
E[E[ x̃ T (k)] x̃(k)] + E[ x̃(k)]E[ x̃ T (k)]
= E[ x̃(k) x̃ T (k)] − E[ x̃(k)]E[ x̃ T (k)] (8.8.8)
8.8. Observador óptimo del estado 375

Si aplicamos 8.8.6 a la expresión 8.8.5 nos queda que el valor medio del error
de reconstrucción tiene la siguiente expresión

E[ x̃(k + 1)] = E[(G − K e (k)C) x̃(k) + w(k)]


= (G − K e (k)C)E[ x̃(k)] (8.8.9)

y en esta expresión 8.8.9 se puede apreciar que si E[x(0)] = m 0 y se toma como


valor inicial del estimador en el instante cero, es decir x̂(0) = m 0 , entonces esta
expresión del valor medio del error de reconstrucción tomará valor cero. Dicho de
otro modo, el error de estimación será cero para todo k ≥ 0, independientemente
del valor de K e (k) que se elija.
Por otra parte, la expresión 8.8.8 de la matriz de covarianza P(k), (puesto que
el valor medio del error de reconstrucción es cero para todo k, E[ x̃(k)] = 0), se
simplifica y nos queda

P(k) = E[ x̃(k) x̃ T (k)] (8.8.10)


Si relacionamos la covarianza del error de reconstrucción en un instante k + 1
con la del instante anterior k, tendremos que

P(k + 1) = E[ x̃(k + 1) x̃(k + 1)T ]


= E[((G − K e (k)C) x̃(k) + w(k))((G − K e (k)C) x̃(k) + w(k))T ]
= E[((G − K e (k)C) x̃(k))((G − K e (k)C) x̃(k))T ]
+E[((G − K e (k)C) x̃(k))w(k)T ]
+E[w(k)((G − K e (k)C) x̃(k))T ] + E[w(k)w(k)T ]
= (G − K e (k)C) P(k)(G − K e (k)C)T + R1 + K e (k)R2 K eT (k)
(8.8.11)

Donde se ha tenido en cuenta que el estado y los ruidos de sistema y medi-


da son independientes por lo que sus matrices de covarianza cruzada son nulas
E[ω(k)x̃(k)T ] = 0 y E[x(k)ω̃(k)T ] = 0, y además se ha sustituido la covarianza
del ruido w(k) por el valor obtenido en la expresión 8.8.7.
Buscamos, según se ha dicho, un observador de estado que minimice la cova-
rianza del error de reconstrucción, es decir que minimice P(k). Esta covarianza
para el estado k + 1, como función de la del instante k y de las covarianzas de los
ruidos del sistema, la tenemos expresada en 8.8.11.

Observación:
Decir que P(k) es mínimo quiere decir que la forma cuadrática α T P(k)α (valor
escalar) es mínima, donde α es un vector n × 1 arbitrario.
376 8. Control de sistemas por realimentación de estado

De esta observación y de la expresión 8.8.11 tenemos


α T P(k + 1)α = α T [G P(k)G T + R1 − K e (k)C P(k)G T
−G P(k)C T K eT (k) + K e (k)(R2 + C P(k)C T )K eT (k)]α
(8.8.12)
la ganancia K e puede determinarse a partir de 8.8.12 agrupando en dos términos la
expresión

α T P(k + 1)α = α T [G P(k)G T + R1 + K e (k)(R2 + C P(k)C T )K eT (k)]


−K e (k)C P(k)G T − G P(k)C T K eT (k)]α
= α T [G P(k)G T + R1
+[K e (k) − G P(k)C T (R2 + C P(k)C T )−1 ]
[R2 + C P(k)C T ][K e (k) − G P(k)C T (R2 + C P(k)C T )−1 ]T
−G P(k)C T (R2 + C P(k)C T )−1 C P(k)G T ]α
(8.8.13)
En la expresión 8.8.13 se puede observar que el primer término y el último no
dependen de K e (k) y el segundo término no es negativo ya que la matriz R2 +
C P(k)C T es definida positiva. Por lo tanto el mínimo de esta expresión se obtiene
cuando K e (k) se elige para que haga cero el segundo término. Es decir, cuando
K e (k) = G P(k)C T (R2 + C P(k)C T )−1 (8.8.14)
y en este caso la expresión de la matriz de covarianzas P(k + 1) queda de la
siguiente forma

P(k + 1) = G P(k)G T + R1
− G P(k)C T × (R2 + C P(k)C T )−1 C P(k)G T (8.8.15)
Esta expresión 8.8.15 es una ecuación de Riccati. Como se puede observar el
valor de la ganancia K e (k) que minimiza la varianza del error de reconstrucción no
depende de α. La matriz de covarianzas del error de reconstrucción en el instante
de tiempo cero (dado que el error de reconstrucción en el instante inicial era cero
por la forma en que habíamos elegido la estimación inicial) será

P0 = E[ x̃(0) − x̃(0)T ]
= E[(x(0) − m0 )(x(0) − m0 )T ]
= P0 (8.8.16)
A las expresiones 8.8.3, 8.8.14 y 8.8.15 se las conoce como filtro de Kalman.
8.8. Observador óptimo del estado 377

8.8.1. Ecuaciones del filtro de Kalman


Resumiendo, dado un sistema

x(k + 1) = Gx(k) + H u(k) + v1 (k) (8.8.17)


y(k) = C x(k) + v2 (k) (8.8.18)

las ecuaciones del observador óptimo del estado (filtro de Kalman) son:

x̂(k + 1) = G x̂(k) + H u(k) + K e (k)[ y(k) − C x̂(k)]


K e (k) = G P(k)C T (R2 + C P(k)C T )−1 (ganancia de Kalman)
T
P(k + 1) = G P(k)G + R1
− G P(k)C T × (R2 + C P(k)C T )−1 C P(k)G T (8.8.19)

El problema de la reconstrucción se ha resuelto como un problema de optimi-


zación paramétrica a partir del modelo del observador de estado completo. Pero el
filtro de Kalman puede interpretarse también como la media condicional del esta-
do en k + 1 dadas las observaciones acumuladas hasta el instante k de la salida del
sistema

x̂(k + 1) = E[x(k)|Y k ] (8.8.20)


este tratamiento puede encontrarse en una gran parte de los textos dedicados al
filtro de Kalman.
378 8. Control de sistemas por realimentación de estado

Bibliografía

[1] S. Barnett y R.G. Cameron, Introduction to Mathematical Control Theory


Oxford University Press, 1992.

[2] S. Domínguez, P. Campoy, J.M Sebastián y A. Jiménez, Control en el Espa-


cio de Estado Prentice Hall, Serie Automática-Robótica, 2001.

[3] B. C. Kuo, Automatic Control Systems, Ed. Prentice Hall, 1991.

[4] N. Nise, Sistemas de Control para Ingeniería, Ed. CECSA, 2002.

[5] K. Ogata, Ingeniería de control moderna, Ed. Prentice Hall, 2002.

[6] K. Ogata, Discrete-Time Control Systems, Prentice Hall International Edi-


tion, 1995.

[7] E. Umez-Eronini, Dinámica de Sistemas y Control Thomson Learning, 2001.


9. CONTROL ÓPTIMO

9.1. Introducción

Un sistema de control óptimo es aquel cuyo diseño optimiza el valor de una


función que se denomina índice de desempeño o función de coste que depende de
las variables del sistema. Esta función de coste incluye, por ejemplo, la medida del
error de seguimiento, la medida del esfuerzo de control, el error final y cualquier
otra característica que el usuario considere interesante. Bajo ciertas condiciones
no muy exigentes, un valor pequeño de función de coste hace que las variables de
estado del sistema también sean pequeñas y esto asegura la estabilidad del sistema.
Estamos interesados en sistemas determinísticos, es decir, que tienen un com-
portamiento determinado por ciertas leyes físicas que no tienen ninguna parte alea-
toria. El sistema debe venir caracterizado por un conjunto de n variables, que son
las variables relevantes del problema. Se necesita tener un modelo matemático del
sistema e identificar el valor de los parámetros de dicho sistema. Por tanto, se ne-
cesita que el sistema venga determinado en su comportamiento por un sistema de
n ecuaciones de estado, que tendrán la forma

ẋ = f (t, x, u)

donde ẋ es la derivada temporal del estado x, f es una función de n componentes,


t es el tiempo y u es la entrada de control, que es m-dimensional.
Se considera que el estado inicial x(t0 ) = x0 y el estado final x(t f ) = x f son
conocidos. El tiempo final t f puede ser fijo o puede ser dejado libre. El estado final
puede ser fijo o estar situado en una curva o superficie.
Finalmente se supone que está definida una función que determina la bondad
del comportamiento del sistema del tipo
Z tf
J = F(x f ) + g(t, x, u) dt
t0

Esta función tiene dos partes, la primera que es el coste terminal, es decir, que
valora el estado final del sistema y la segunda parte que valora el estado del sistema
x y el control u a lo largo de la trayectoria.
380 9. Control óptimo

9.2. Funciones de coste

Al diseñar un control óptimo se desea determinar los valores de un conjunto de


parámetros para que dicho controlador minimice alguna medida de la desviación
del comportamiento ideal y que además, verifique ciertas restricciones.
Dicha medida de desempeño nos dice cuánto se parece el comportamiento real
del sistema al comportamiento deseado, que viene dado por la señal de referencia.
Algunas de las funciones de coste más conocidas son:
ISE Integral del error cuadrático (Integral Squared Error). Mide el error cuadráti-
co de seguimiento del sistema.
Para sistemas continuos:
Z ∞
J = e2 (τ )dτ
0

Para sistemas discretos:



X
J = ek2
k=0

Ventajas y desventajas:
Entre las ventajas que expresa este índice tenemos:
Obliga a anular el error para que el índice J sea mínimo.
Es fácil de implementar en computador.
Como desventaja más significativa tenemos hay que señalar que:
El error cuadrático pondera más los errores grandes que los pequeños.
Por tanto, cuando el sistema tiene errores grandes converge rápidamen-
te a una banda con errores pequeños. Pero una vez que se encuentra en
esa banda oscila mucho y le cuesta disminuir el error.
ITSE Integral del tiempo por el error cuadrático (Integral Time Squared Error).
Minimiza el error cuadrático multiplicado por el tiempo.
Para sistemas continuos:
Z ∞)
J = τ e2 (τ )dτ
0

Para sistemas discretos:



X
J = kek2
k=0

Ventajas y desventajas:
Entre las ventajas de este índice resalta que:
9.2. Funciones de coste 381

El tiempo de establecimiento se mejora y es más rápido que el ISE


porque se multiplica por el tiempo, y por tanto, se ponderan más los
tiempos grandes que los pequeños.

y entre las desventajas:

Es más difícil de implementar en computador porque hay que multipli-


car por el instante k.

IAE Integral del valor absoluto del error (Integral Absolute Error)
Para sistemas continuos:
Z ∞
J = |e(τ )|dτ
0

Para sistemas discretos:



X
J = |ek |
k=0

Ventajas y desventajas:
Entre las ventajas podemos destacar:

Se ponderan lo mismo los errores grandes y pequeños, con lo que con-


verge mejor que los índices de error cuadráticos para errores pequeños.

y entre las desventajas:

Como los errores grandes no se ponderan mucho, la convergencia es


lenta para cuando el error es grande.

En general el IAE es más rápido que el ISE si nos encontramos cerca del
óptimo, pero el ISE converge más rápido si estamos lejos.

Si se trabaja en variables de estado se suele utilizar un error cuadrático gene-


ralizado, que pondera el valor final, el error cuadrático y la energía gastada en la
optimización.
Para sistemas continuos:
Z
1 T 1 t T
J = x (τ )Sx(τ ) + x (τ ) Qx(τ ) + u T (τ )Ru(τ )dτ (9.2.1)
2 2 0
Para sistemas discretos:

1X T
N
1 T
J = x N Sx N + [x Qxk + ukT Ruk ] (9.2.2)
2 2 k=0 k
382 9. Control óptimo

Para poder optimizar el índice debe ser convergente, por tanto, el sistema debe
ser estable. Las matrices S (que pondera el valor final) y Q (error cuadrático del
estado) deben ser hermíticas y definidas positivas o semidefinidas positivas. La
matriz R (matriz de energía) debe ser definida estrictamente positiva. Con estos
condicionantes podemos decir que si J es convergente, tenderá a un mínimo.

9.3. El problema general de control óptimo (discreto)

Un modelo en variables de estado para un sistema no lineal discreto1 viene


dado por
xk+1 = f k (xk , uk ) (9.3.1)
donde el superíndice k indica que la función puede variar con el tiempo, xk es el
vector de estado en el tiempo k, uk es el vector de las entradas de control y x0 la
condición inicial. Consideremos la función de coste
X
N
J = φ(N , x N ) + L k (xk , uk ) (9.3.2)
k=i

donde φ(N , x N ) es una función del estado final, L k (xk , uk ) es una función que
pondera la energía y el error de seguimiento (comparar con 9.2.2), [i, N ] es el
intervalo de interés.
El problema de control óptimo consiste en encontrar la señal de control u∗k en
el intervalo [i, N ] que hace que la trayectoria de xk haga mínimo el coste J .
Para encontrar la secuencia óptima, consideremos la función de coste aumen-
tada
X
N
0
J = φ(N , x N ) + [L k (xk , uk ) + λk+1
T
( f k (xk , uk ) − xk+1 )] (9.3.3)
k=i

donde la función f k está asociada con el multiplicador de Lagrange λk+1 . Minimi-


zar esta nueva función de coste se puede interpretar como una minimización de la
función de coste J y al mismo tiempo, el cumplimiento de las restricciones 9.3.1
con unos pesos λk+1 .
Si se define el hamiltoniano como
Hk (xk , uk , λk+1 ) = L k (xk , uk ) + λk+1
T
f k (xk , uk ) (9.3.4)
se puede reescribir la función de coste como
N −1
X
J 0 = φ(N , x N ) − λTN x N + Hi (xi , ui ) + [Hk (xk , uk ) − λkT xk )] (9.3.5)
k=i+1

1 Nótese que en este capítulo se ha cambiado la notación por simplicidad. En concreto la notación
x(k) da paso a la notación xk .
9.3. El problema general de control óptimo (discreto) 383

Para encontrar la secuencia óptima, la diferencial temporal dJ 0 debe ser cero.


dJ 0 =(φ x N − λ N )T d x N + (Hixi )T d xi + (Hiui )T dui
N −1
X  
+ (Hkxk − λk )T d xk + (Hkuk )T duk
k=i+1 (9.3.6)
X
N
+ (Hλk−1
k
− xk )T dλk
k=i+1
i
donde se ha adoptado como notación Hixi = ∂∂Hxi y de forma análoga para las otras
derivadas parciales.
El mínimo valor de J 0 se alcanza cuando dJ 0 = 0 para todos los posibles
incrementos de las variables. Haciendo cero los coeficientes de dJ 0 (9.3.6) por un
lado y derivando Hk (9.3.5) por otro, se obtiene:
Ecuación de estado
∂Hk
xk+1 = = f k (xk , uk ) (9.3.7)
∂λk+1
Ecuación de coestado
 T
∂Hk ∂ fk ∂ Lk
λk = = λk+1 + (9.3.8)
∂ xk ∂ xk ∂ xk

Ecuación de estacionariedad
 T
∂Hk ∂ fk ∂ Lk
0= = λk+1 + (9.3.9)
∂ uk ∂ uk ∂ uk

Condiciones de contorno
 T !T
∂ Li ∂ fi
+ λi+1 d xi = 0
∂ xi ∂ xi
 T (9.3.10)
∂φ
− λN d xN = 0
∂ xN

Ejemplo 9.3.1:PConsideramos la planta escalar xk+1 = xk u k + 1 con la función


N −1 2
de coste J = 21 k=0 u k con el tiempo final N = 2. Dado x0 , se desea hacer x2 =0.
a) Escribir las ecuaciones de estado y de coestado con u k eliminado.
b) Suponer que el valor final del coestado λ2 es conocido. Determinar λ0 , λ1 en
función de λ2 y del estado. Utilizar esto para expresar x2 en términos de λ2 y de
x0 . De todo ello determinar una ecuación cuadrática para λ2 en función del estado
inicial x0 .
c) Si x0 = 1, encontrar las secuencias óptimas para el estado y el coestado. Deter-
minar la secuencia de control óptima y el valor de la función de coste.
384 9. Control óptimo

Solución:
a) Hamiltoniano:
1
Hk (xk , u k ) = L k (xk , u k ) + λk+1
T
f k (xk , u k ) = u 2k + λk+1 (xk u k + 1)
2
Ecuación de estado:
∂Hk
xk+1 = = xk u k + 1
∂λk+1
Ecuación de coestado:
∂Hk
λk = = λk+1 u k
∂ xk
Condición de estacionariedad:
∂Hk
0= = u k + λk+1 xk ⇒ u k = −λk+1 xk
∂u k
Por tanto, la ecuación de estado queda

xk+1 = −λk+1 xk2 + 1

y la de coestado
λk = −λ2k+1 xk
b) Si conocemos λ2 ,

λ1 = −λ22 x1 = −λ22 (−λ1 x02 + 1) = λ22 λ1 x02 − λ22 ⇒ λ1 (1 − λ22 x02 ) = −λ22

λ22
λ1 =
λ22 x0 − 1
 
−λ2
λ0 = −λ21 x0 = − 2 2 x0
λ2 x 0 − 1
Vamos a expresar x2 en términos de λ2 y x0 :
 2
λ22
x2 = −λ2 x12 +1= −λ2 (−λ1 x02 2
+ 1) + 1 = −λ2 − 2
x +1 +1
λ22 x0 − 1 0

Como se desea hacer x2 = 0


 2
λ22 2
−λ2 − x +1 +1=0
λ22 x0 − 1 0

c) Si x0 = 1
λ42 − 2λ22 − λ2 + 1 = 0
9.3. El problema general de control óptimo (discreto) 385


 λ21 = 1.49


λ = 0.52
22


 λ23 = −1 + 0.51 j


λ23 = −1 − 0.51 j
(Los complejos no se consideran, porque no corresponden a soluciones reales).
Obtención de los vectores de estado x2 , x1 y x0 :
Como xk+1 = −λk+1 xk2 + 1, se obtiene

x1 = −λ1 x02 + 1 = −λ1 + 1


x2 = −λ2 x12 + 1

Obtención de la secuencia de coestado:


λ22
λ1 =
λ22 − 1
 2
λ2
λ0 = − 2 2
λ2 − 1
Obtención de la secuencia de control:


 u 0 = −λ1 x0



 u 1 = −λ2 x1

...



 u k = −λk+1 xk



...
Para λ2 = 1.49,
 2
λ2 λ2
λ1 = 2 2 = 1.8 λ0 = − 2 2 = −3.24
λ2 − 1 λ2 − 1

x1 = −λ1 + 1 = −0.8; u 0 = −λ1 x0 = −1.8


x2 = −λ2 x12 + 1 = 2.2; u 1 = −λ2 x1 = 1.2
N −1
1X 2 1X 2 1 2
1
J = uk = u = (u 0 + u 21 ) = 2.34 (Máximo)
2 k=0 2 k=0 k 2

Para λ2 = 0.52,
 2
λ2 λ2
λ1 = 2 2 = −0.33 ⇒ λ0 = − 2 2 = −0.11
λ2 − 1 λ2 − 1
386 9. Control óptimo

x1 = −λ1 + 1 = 1.33; u 0 = −λ1 x0 = 0.33


x2 = −λ2 x12 + 1 = 1.88; u 1 = −λ2 x1 = −0.66
N −1
X X
1
1 1 1
J = u 2k = u 2k = (u 20 + u 21 ) = 0.2725 (Mínimo)
2 k=0
2 k=0
2

9.4. Regulador lineal cuadrático (LQR) discreto

Consideremos el sistema lineal discreto


xk+1 = G k xk + Hk uk
con la función de coste cuadrática
N −1
1 T 1X T
Ji = x N SN x N + (x Q k xk + ukT Rk uk )
2 2 k=i k

donde Q k , Rk y SN son matrices simétricas, semidefinidas positivas.


Se desea hallar la secuencia de control u i , u i+1 , . . . , u N −1 que minimice Ji .
En este caso, el Hamiltoniano es,
1
Hk = (xkT Q k xk + ukT Rk uk ) + λk+1
T
(G k xk + Hk uk ), (9.4.1)
2
la ecuación de estado es
∂Hk
xk+1 = = G k xk + Hk uk , (9.4.2)
∂λk+1
la ecuación de coestado
∂Hk
λk = = Q k xk + G kT λk+1 (9.4.3)
∂ xk
y la ecuación de estacionariedad
∂Hk
0= = Rk uk + HkT λk+1 . (9.4.4)
∂ uk
De ésta última ecuación se tiene uk = −Rk−1 HkT λk+1 y sustituyendo en la
ecuación de estado,
xk+1 = G k xk − Hk Rk−1 bkT λk+1
y en la de coestado,
λk = Q K xk + G kT λk+1
La condición inicial xi es conocida y el estado final x N se considera libre. Por tanto
d x N 6= 0
9.4. Regulador lineal cuadrático (LQR) discreto 387

9.4.1. Control discreto con estado final libre


En el caso de que no haya ninguna restricción sobre el estado final, se puede
eliminar u k entre la ecuaciones de estado y coestado

xk+1 = G k xk − Hk Rk−1 HkT λk+1 (9.4.5)

λk = Q k xk + G kT λk+1 (9.4.6)
y la ley de control es
uk = −Rk−1 HkT λk+1
Como el estado final x N es libre d x N 6 = 0. Por tanto la condición de contorno
9.3.10 queda de la forma
∂φ
λN =
∂ xN
Como φ = 12 x NT SN x N entonces

λ N = SN x N

Para resolver este problema de contorno, se usa el ’sweep method’ de Bryson y


Ho (1975). Para ello se supone que esta última relación se cumple para todos los
valores k con 1 ≤ k ≤ N , es decir λk = Sk xk . Aplicando esta expresión en 9.4.5
se tiene
xk+1 = G k xk − Hk Rk−1 HkT Sk+1 xk+1
Despejando xk+1
xk+1 = (I + Hk Rk−1 HkT Sk+1 )−1 G k xk
Sustituyendo λk+1 en la ecuación de coestado 9.4.6

Sk xk = Q k xk + G kT Sk+1 xk+1

De estas dos últimas ecuaciones

Sk xk = Q k xk + G kT Sk+1 (I + Hk Rk−1 HkT Sk+1 )−1 G k xk

Como xk es generalmente distinto de 0

Sk = G kT Sk+1 (I + Hk Rk−1 HkT Sk+1 )−1 G k + Q k

y utilizando el lema de inversión de matrices (G −1 11 + G 12 G 22 G 21 )


−1
= G 11 −
−1 −1
G 11 G 12 (G 21 G 11 G 12 + G 22 ) G 21 G 11 se obtiene la ecuación de Riccati

Sk = G kT (Sk+1 − Sk+1 Hk (HkT Sk+1 Hk + Rk )−1 HkT Sk+1 )G k + Q k (9.4.7)


388 9. Control óptimo

que, usando de nuevo el lema de inversión de matrices y suponiendo que |Sk | 6= 0


se puede reescribir en la forma
−1
Sk = G kT (Sk+1 + Hk Rk−1 HkT )−1 G k + Q k . (9.4.8)

El control óptimo es

uk = −Rk−1 HkT λk+1 = −Rk−1 HkT Sk+1 xk+1

Esta expresión se puede operar para reescribirla de una forma mas satisfactoria,
obteniendo la llamada ganancia de Kalman

K k = (HkT Sk+1 Hk + Rk )−1 HkT Sk+1 G k (9.4.9)

con
uk = −K k xk

Ejemplo 9.4.1: Sea xk+1 = 2xk + u k . Encontrar la ganancia P de realimentación


óptima K k que minimiza la función de coste J = 5x52 − 4k=0 (xk2 + u 2k ). Encontrar
la trayectoria resultante para el estado y el valor de la función de coste.

Solución:
1) Modelo:

xk+1 = Gxk + H u k ; xk+1 = 2xk + u k ⇒ G = 2, H =1

2) Ley de control:
u k = −K k xk
3) Función de coste:
N −1
1 T 1X T
J = x N SN x N + (x Qxk + u kT Ru k )
2 2 k=0 k

X
4
J = 5x52 − (xk2 + u 2k ) ⇒ S5 = 10, Q = −2, R = −2
k=0

4) Hay que resolver la ecuación de Riccati 9.4.7: Sk = G T Mk+1 G + Q, siendo

Mk+1 = Sk+1 − Sk+1 Hk (Rk + HkT Sk+1 Hk )−1 HkT Sk+1 =


= Sk+1 − Sk+1 1(−2 + 1Sk+1 1)−1 1Sk+1 =
2
Sk+1
= Sk+1 −
Sk+1 − 2
9.4. Regulador lineal cuadrático (LQR) discreto 389

Por tanto, la ecuación de Riccati se puede expresar como


   
Sk+1
Sk = 2 Sk+1 1 − −1
Sk+1 − 2

Se sabe que S5 = 10, luego


   
S5
S4 = 2 S5 1 − − 1 = −7
S5 − 2

   
S4
S3 = 2 S4 1 − − 1 = −5.11
S4 − 2
   
S3
S2 = 2 S3 1 − − 1 = −4.88
S3 − 2
   
S2
S1 = 2 S2 1 − − 1 = −4.84
S2 − 2
   
S1
S0 = 2 S1 1 − − 1 = −4.83
S1 − 2

5) Se obtiene la ganancia de Kalman:

2Sk+1
K k = (R + H T Sk+1 H )−1 H T Sk+1 G =
Sk+1 − 2

De donde

K 4 = 2.5, K 3 = 1.56, K 2 = 1.44, K 1 = 1.42 y K 0 = 1.41

lo que permite conocer la secuencia de control, ya que

u k = −K k xk

Como xk+1 = (G − H K k )xk = (2 − K k )xk y se conoce x0 , se pueden calcular


los demás valores, así x1 = (2 − K 0 )x0 = 0.39x0 , x2 = (2 − K 1 )x1 = 0.38x1 , etc.
La función de coste en el punto óptimo es

1
J∗ = x0 S0 x0
2
390 9. Control óptimo

9.4.2. Control óptimo discreto en estado estacionario


Como se ha podido comprobar, a pesar de utilizar sistemas invariantes en el
tiempo, la ganancia de Kalman K k , que es la solución al problema de control ópti-
mo varía con el tiempo. Consideremos ahora el caso de que el intervalo de tiempo
sea infinito, es decir, se desea encontrar la señal de control uk = K xk que minimice
la función de coste

1 T 1X T
J∞ = x∞ Sx∞ + (x Qxk + ukT Ruk ). (9.4.10)
2 2 k=0 k

Este caso corresponde a hacer tender N a infinito en el caso anterior. Por tanto, la
solución corresponderá a calcular la matriz de Riccati Sk y hacer tender k hacia
infinito. En caso de que sea convergente se tendrá S = Sk = Sk+1 , con lo que la
ecuación de Riccati, tendrá la forma

S = G T (S − SH(R + H T SH)−1 H T S)G + Q (9.4.11)

que no depende de k y es denominada ecuación algebraica de Riccati. En esta


ecuación S debe ser real y definida positiva, es decir, no todas las soluciones de
esta ecuación son válidas para el problema de control óptimo.

Ejemplo 9.4.2 (Control óptimo discreto - Riccati): Dado el sistema discreto x(k+
1) = Gx(k) + H u(k), con G = 2, H = 1 y la función de coste
N −1
1 2 1X 2
JN = x N + x + 0.1u 2k
2 2 k=1 k

a) ¿Es estable el sistema en bucle abierto?.


b) Encontrar la solución óptima en el estado estacionario a partir de la solución de
la ecuación algebraica de Riccati. Comprobar la estabilidad

Solución:
a) det (z I − G) = 0 ⇒ z − 2 = 0 ⇒ z = 2
Como el polinomio característico del sistema en bucle abierto tiene un cero en z=2,
es decir, fuera del círculo unidad, el sistema es inestable.
b) La fórmula de Riccati dice que

Sk = G T [Sk+1 − Sk+1 Hk (Rk HkT Sk+1 Hk )−1 H T Sk+1 ]G + Q

Como en estado estacionario (Sk = Sk+1 = S), entonces,

S = G T [S − S H (R + H T S H )−1 H T S]G + Q
9.5. Control óptimo en tiempo continuo 391

La ganancia es
K k = (R + H T Sk+1 H )−1 H T Sk+1 G
que, en el caso estacionario queda

K = (R + H T S H )−1 H T SG

Sustituyendo G = 2, H = 1 se tiene:

S = 2[S − S(0.1 + S)−1 S]2 + 1 ⇒ S 2 − 1.3S − 0.1 = 0

Por tanto, √ (
1.3 ± 1.32 + 0.4 1.37
S= =
2 −0.07
La ganancia es
(
−1 2S 1.86
K = (0.1 + s) 2S = =
0.1 + S −4.67

y como K tiene que ser definida positiva, el control óptimo será

u ∗ (k) = −K ∗ x(k) = −1.86x(k)

9.5. Control óptimo en tiempo continuo

Un modelo en variables de estado para un sistema no lineal continuo viene


dado por
ẋ = f (x, u, t)
donde x(t) es el vector de estados, y u(t) es el vector de las entradas de control.
Como se ha visto, se pueden conseguir diversos objetivos de control usando
diversos índices de desempeño, dados por
Z T
J = φ(x(T ), T ) + L(x(t), u(t), t)dt
t0

La función φ pondera el estado final del sistema, y la función L pondera el desem-


peño (seguimiento y la energía gastada).
El problema de control óptimo consiste en encontrar la señal de control u(t)
que minimiza el índice J y que además cumple la restricción de estado final

9(x(T ), T ) = 0
392 9. Control óptimo

Por ejemplo, si se desea que las variables de estado (x1 , x2 ) de un sistema tomen el
valor final (x1 f , x2 f ), entonces la restricción de estado final debe ser
 
x (T ) − x
9(x(T ), T ) =  1 1f

x2 (T ) − x2 f

Si sólo se necesita que la posición final esté suficientemente próxima al estado


final, se puede usar como función de ponderación del estado final

φ((x1 (T ) − x1 f )2 + (x2 (T ) − x2 f )2 )

Para aplicaciones de control, se usa normalmente la función φ en lugar de la


función 9.

9.5.1. Solución del problema de control óptimo


Para resolver el problema de control óptimo vamos a utilizar los multiplicado-
res de Lagrange λ para adjuntar las restricciones al índice de coste. La ecuación del
sistema se puede considerar una restricción más si se escribe como f (x, u, t)− ẋ =
0. Esta restricción estará asociada al multiplicador λ(t), que es una función del
tiempo. Para adjuntar la restricción ψ(x(T ), T ) = 0, que corresponde al tiempo T
basta un multiplicador constante ν. La función de coste aumentada toma la forma
Z T
0 T
J = φ(x(T ), T ) + ν 9(x(T ), T ) + [L(x, u, t) + λT (t)( f (x, u, t) − ẋ)]dt
t0

Definiendo el Hamiltoniano como

H = L(x, u, t) + λT (t) f (x, u, t)

la función de coste se puede expresar como


Z T
0 T
J = φ(x(T ), T ) + ν 9(x(T ), T ) + [H(x, u, t) − λT (t) ẋ]dt
t0

El incremento de la función de coste se puede expresar como

dJ 0 = (φx + 9xT ν)T d x|T + (φt + 9tT ν)dt|T + 9 T |tdν


+ (H − λT ẋ)dt|T − (H − λT ẋ)dt|t0
Z T (9.5.1)
+ [HxT δx + HuT δu − λT δ ẋ + (Hλ − ẋ)T δλ]dt
t0

donde los subíndices expresan derivadas parciales.


9.5. Control óptimo en tiempo continuo 393

En esta expresión d x representa la diferencial del estado x, mientras que δx


representa la variación del estado,

d x(T ) = δx(T ) + ẋ(T )dT

es decir, en d x(T ) se incluyen todos los cambios en x(T ), incluso cambios en T ,


mientras que en δx(T ) se considera T fijo (fig 9.1).

x(t)
.
x(T)dT
dx(T)
δ x(T)

x(t)

x(t)+dx(t)
dT

to T T+dT

Fig. 9.1: Relación entre la variación δx y la diferencial d x

Integrando por partes en 9.5.1,


Z T Z T
T T T
− λ δ ẋdt = −λ δx|T + λ δx|t0 + λT δxdt
t0 t0

y sustituyendo en 9.5.1 se tiene,

dJ 0 = (φx + 9xT ν − λ)T d x|T + (φt + 9tT ν + H)dt|T


Z T
(9.5.2)
+ [(Hx + λ)T δx + HuT δu + (Hλ − ẋ)T δλ]dt
t0

El mínimo valor de J 0 se alcanza cuando dJ 0 = 0 para todos los posibles incre-


mentos de las variables. Haciendo cero los coeficientes de dν, δx, δu, y δλ se
obtiene

Ecuación de estado
∂H
ẋ = = f (x, u, t)
∂λ
Ecuación de coestado
∂H ∂ fT ∂L
−λ̇ = = λ+
∂x ∂x ∂x
394 9. Control óptimo

Condición de estacionariedad
∂H ∂L ∂ fT
0= = + λ
∂u ∂u ∂u

Condiciones de contorno

((φx + 9xT ν − λ)T |T d x(T ) + (φt + 9tT ν + H)|T dT = 0

Ejemplo 9.5.1 (Principio de Hamilton de la dinámica clásica.): El principio de


Hamilton de la Dinámica Clásica dice que de todas las trayectorias posibles que
puede seguir un sistema conservativo, el sistema siempre elige la que minimiza la
integral temporal del Lagrangiano, es decir, de la diferencia entre la energía cinéti-
ca y la energía potencial.

Solución:
Consideremos el sistema q̇ = f (q, u), donde q es el vector de coordenadas ge-
neralizadas, y q̇ = u es el vector de velocidades generalizadas. El principio de
Hamilton nos dice que hay que minimizar la función de coste
Z T
J = L(q, u)dt
0

donde L(q, u) es el Lagrangiano, es decir, la diferencia entre la energía cinética


T (q, u) y la energía potencial U (q, u).
El Hamiltoniano es
H = L + λT u
La ecuación de coestado es
∂H ∂L
−λ̇ = =
∂q ∂q
y la de estacionariedad
∂H ∂L
0= = +λ
∂u ∂u
A partir de estas dos ecuaciones se llega a la ecuación de Lagrange del movimiento
∂L d ∂L
− = 0. (9.5.3)
∂q dt ∂ q̇
En el cálculo variacional, a ésta ecuación se la conoce por el nombre de ecuación
de Euler.
Por otra parte, a la expresión λ = − ∂∂ q̇L se la denomina vector momento gene-
ralizado. Entonces las ecuaciones de estado y coestado se pueden escribir como
∂H
q̇ =
∂λ
9.5. Control óptimo en tiempo continuo 395

∂H
−λ̇ =
∂q
que son conocidas como ecuaciones de Hamilton del movimiento. Por tanto, en el
problema de control óptimo, las ecuaciones de estado y coestado son una generali-
zación de las ecuaciones de Hamilton del movimiento.

Ejemplo 9.5.2 (Euler-Lagrange): Un sistema tiene por ecuación de estado ẋ =


u. Determinar la señal de control óptima que minimice el índice
Z tf
1
J = (x 2 − u 2 )dt
2 0

si x(0) = 0 y x(t f ) se mueve sobre la recta y t f = π4 .

Solución:
Sustituyendo valores en la función de coste, resulta
Z tf
1
J = (x 2 − ẋ 2 )dt
2 0

La ecuación de Euler-Lagrange se obtiene de la de Lagrange 9.5.3 y se puede


expresar como
Fẋ
Fx − =0
dt
En este caso,
Fẋ −ẋ
Fx = x, = = −ẍ
dt dt
Por tanto la ecuación de Euler-Lagrange queda ẍ − x = 0.
La solución es de la forma x = c1 sen(t) + c2 cos(t).
De la condición inicial x(0) = 0, se tiene c2 = 0, luego x = c1 sen(t).
Para hallar el valor de la constante c1 debe tenerse en cuenta que el punto x(t f ) se
mueve sobre la recta de ecuación t f = π4 .
La condición de óptimo es

Fx (x, ẋ, t)|∗,t f = −ẋ|∗,t f = 0

luego −c1 cos(t)|∗,t f = −c1 cos(π/4) = 0, de donde c1 = 0. La variable de estado


óptima es x = 0, y la señal de control óptima es u = 0.
396 9. Control óptimo

9.6. Regulador lineal cuadrático (LQR) continuo

Consideremos el sistema lineal ẋ = Ax + Bu. Deseamos minimizar la función


de coste
Z
1 1 T T
J (t0 ) = x T (T )S(T )x(T ) + (x Qx + u T Ru)dt
2 2 t0

donde las matrices Q y S(T ) son semidefinidas positivas y R es definida positiva.


En este caso el Hamiltoniano es:
1
H(x, u, λ, t) = (x T Qx + u T Ru) + λT ( Ax + Bu)
2
La ecuación de estado,
∂H
ẋ = = Ax + Bu
∂λ
La ecuación de coestado,
∂H
−λ̇ = = Qx + AT λ
∂x
y la condición de estacionariedad

∂H
0= = Ru + B T λ ⇒ u = −R−1 B T λ
∂u

9.6.1. Control continuo con estado final libre


La condición inicial es x(t0 ) = x0 . En el tiempo final T el valor final x(T ) es
libre, d x(T ) 6= 0 y la condición de contorno es similar al caso continuo

∂φ
λ(T ) = = S(T )x(T )
∂ x T

Para encontrar el control óptimo hay que resolver el problema de contorno de


dos puntos usando el ’sweep method’. Para ello consideramos que la función λ(t)
se puede escribir en la forma

λ(t) = S(t)x(t), ∀t[t0 , T ]

donde S(t) es una función matricial desconocida.


Para hallar la función S(t), se deriva el coestado λ y se obtiene, usando la
ecuación de estado,

λ̇ = Ṡx + S ẋ = Ṡx + S( Ax − B R−1 B T Sx)


9.6. Regulador lineal cuadrático (LQR) continuo 397

Sustituyendo λ̇ de la ecuación de coestado se tiene,

− Ṡx = ( AT S + S A − SB R−1 B T S + Q)x

de donde se obtiene la ecuación de Riccati,

− Ṡ = AT S + S A − SB R−1 B T S + Q (9.6.1)

que permite hallar la función S(t).


Una vez conocida la función S(t), el control óptimo viene dado por

u(t) = −R−1 B T S(t)x(t) (9.6.2)

o bien, definiendo la ganancia de Kalman por

K (t) = R−1 B T S(t) (9.6.3)

se puede escribir la ley de control óptimo en bucle cerrado como

u(t) = −K (t)x(t). (9.6.4)

Ejemplo 9.6.1: Determinar la señal de control óptima u ∗ (t) que debe aplicarse al
sistema de ecuación de estado ẋ = −x + u para que minimice la función de coste
Z 1
J = (x 2 + u 2 )dt,
0

si las condiciones inicial y final son x(0) = 0, x(1) = 1.

Solución:
El Hamiltoniano es

H(x, u, λ, t) = x 2 + u 2 + λ(−x + u)

La condición de estacionariedad es
∂H
= 0 ⇒ 2u + λ = 0 ⇒ u = −λ/2
∂u
Sustituyendo en el Hamiltoniano la variable de control hallada que resulta ser
óptima, resulta:
 
∗ 2 λ2 λ λ2 λ
H =x + + λ −x − = x 2 − λx − = −x −
4 2 4 2
La variable de estado óptima se determina por resolución del sistema de ecua-
ciones:
398 9. Control óptimo

Ecuación de estado:
λ2
∂H ∂(x 2 − λx − 4
)
ẋ = =
∂λ ∂λ
Ecuación de coestado
λ2
∂H ∂(x 2 − λx − 4
)
λ̇ = =− = −2x + λ
∂x ∂x
De esta forma queda
λ
ẋ = −x −
2
λ̇ = −2x + λ
Derivando ẋ y sustituyendo λ̇, queda
λ̇ 1
ẍ = −ẋ − = −ẋ − (−2x + λ)
2 2
λ
ẍ = −ẋ + x −
2
λ
ẍ + ẋ − x =
2
λ λ
ẍ + (−x − ) − x =
2 2
ẍ − 2x = λ
√ √
La variable de estado óptima es x(t) = k1 e− 2t + k2 e 2t Teniendo en cuenta las
condiciones inicial y final impuestas, se obtiene
(
t =0→ k1 + k2 = 0
√ √
t = 1 → k1 e− 2 + k2 e 2
=1

 1

 k1 = −√2 √
e +e 2

 1
 k2 = √ √
e 2 + e− 2
Por consiguiente
1 √ 1 √ √
x(t) = √ √ (e
2t
+ e−2t
)=
√ sinh( 2t)
e 2+ e− 2 sinh 2
1 √ −√2t √ √
λ(t) = √ [(1 − 2)e + (1 + 2)e 2t ]
sinh 2
La señal de control óptima es
λ 1 √ √ √ √
u ∗ (t) = − = √ [(1 − 2)e 2t + (1 + 2)e− 2t ]
2 2 sinh 2
9.6. Regulador lineal cuadrático (LQR) continuo 399

9.6.2. Control continuo en estado estacionario


En la mayoría de las aplicaciones basta considerar un controlador que no va-
ríe con el tiempo. Este tipo de controladores tiene la ventaja de ser sencillos de
implementar y además no gastan mucho tiempo de computador.
Si el controlador es constante, la matriz S es constante y por tanto, Ṡ = 0, y
la ecuación de Riccati (9.6.1) puede reemplazarse por la ecuación algebraica de
Riccati
AT S + S A − SB R−1 B T S + Q = 0 (9.6.5)
Esta ecuación puede tener más de una solución, pero bajo ciertas condiciones no
muy exigentes se puede asegurar que existe una única solución S definida positiva.
En el caso del Regulador Lineal Cuadrático estacionario (LQR) la señal de
realimentación es (9.6.2) y S es constante, entonces

u(t) = −R1 B T Sx(t) (9.6.6)

y la función de coste óptima es


1 T
J = x (0)Sx(0) (9.6.7)
2
Ejemplo 9.6.2 (LQR): Consideremos el sistema
(
ẋ1 = x2

ẋ2 = − 5x2 + u

Se desea hallar el controlador que minimiza el índice


Z
1 ∞ 2
J = (4x1 + u 2 )dt
2 0
donde al transitorio se le da más importancia que al consumo energético (en concre-
to a la evolución del estado se le da 4 veces más importancia que al gasto energético
y no se tiene en cuenta la evolución del estado x2 ).

Solución:
Empleando el método del regulador lineal óptimo y siendo
     
0 1  h i
A= 0 ; Q = 4 0 ;
√ ; B= R= 1
0 − 5 1 0 0

La matriz S se calcula a partir de la ecuación de Riccati estacionaria

AT S + S A − SB R−1 B T S + Q = 0
400 9. Control óptimo

     
0 0  s11 s12  s11
+
s12  0 1 
√ √ +
1 − 5 s21 s22 s21 s22 0 − 5
      
s s 0 h ih i s s12  4 0
+  11 12    1 0 1  11 − =0
s21 s22 1 s21 s22 0 0
Desarrollando e igualando términos se obtiene el sistema


 s2 = 4
 12 √
s11 − 5s12 − s12 s22 = 0

 2s − 2√5s − s 2 = 0

12 22 22

Para que la matriz S sea definida positiva es necesario elegir los valores

s11 = 6, s12 = 2, s22 = 3 − 5

Por consiguiente  

S= 6 2 

2 (3 − 5)
La señal de control óptima es
 
h ih i 6 2
u∗ (t) = −R−1 B T Sx(t) = − 1 0 1  √
 x(t) =
2 (3 − 5)
√ √
= −[2 (3 − 5)]x(t) = −2x1 (t) − (3 − 5)x2 (t).
 
1 1 6 2
J = x T (0)Sx(0) = x T (0)  √
 x(0) =
2 2 2 (3 − 5)
1 √
= [6x12 (0) + 4x1 (0)x2 (0) + (3 − 5x22 (0)]
2
 
1
Si x(0) =  , entonces
1
1 √
J ∗ = (6 + 4 + (3 − 5)) = 5.38
2
Ejemplo 9.6.3 (Optimización continua lineal.): Sea el sistema lineal
   
0 1 0
ẋ =  x +   u,
0 0 1
9.6. Regulador lineal cuadrático (LQR) continuo 401

con la función de coste


Z ∞
J = (−4x1 x2 − x2 + u 2 )dt
0

Determinar la realimentación óptima.

Solución:
La ecuación de estado es
   
0 1 0
ẋ =  x +  ,
0 0 1

y la función de coste
  
Z ∞ h i
J = x1 x2  0 − 2  x1  + [1]u 2 dt
0 −2 − 1 x2

La matriz Q es  
 0−2 
−2 − 1
y R es 1.
Aplicamos la ecuación de Riccati para estado estacionario.

AT S + S A − SB R−1 B T S + Q = 0
     
0 0 s11 s12  + s11 s12  0 1 +
1 0 s12 s22 s12 s22 0 0
        
h i h i s11 s12   0 −2 0 0
+ s11 s12  0
1 0 1  + =
s12 s22 1 s12 s22 −2 −1 0 0
Simplificando,
         
h i 0 −2 0 0
0 0  0 s11  s12 
+ + s12 s22 +  =
s11 s12 0 s12 s22 −2 −1 0 0

es decir
       
 0 s11  + 
2
s12
s12 s22   0 −2 0 0
+ =
s11 2s12 s12 s22 2
s12 −2 −1 0 0
402 9. Control óptimo

De aquí, se deduce  2

 s12 =0
s11 + s12 s22 − 2 = 0

 2
2s12 + s22 −1=0

 s12 = 0

s11 = 2


s22 = 1
 
2 0
S=
0 1
La señal de control óptima es
 
h
i 2 0 h i
u∗ = −R−1 B T Sx(t) = −1 0 1   x(t) = − 0 1 x(t)
0 1

Ejemplo 9.6.4 (Optimización continua no lineal): Dado el sistema continuo ÿ(t) =


− ẏ(t) + u(t) con la función de coste
Z
1 ∞ 2
J = ( ẏ + y 2 + 0.1u 2 )dt
2 0
Determinar la ley de control óptimo en estado estacionario.

Solución:
Las ecuaciones de estado del sistema son
(
ẋ1 = x2
ẋ2 = −x2 + u

El Hamiltoniano del sistema es


1
H = (x22 + x12 + 0.1u 2 ) + λ1 x2 + λ(−x2 + u)
2
La condición de estacionariedad es
∂H
= 0.1u + λ2 = 0 ⇒ u = −10λ2
∂u
Sustituyendo en el Hamiltoniano, la variable de control por su valor óptimo,
1 2 1 2
H∗ = x + x − 5λ22 + λ1 x2 − λ2 x2
2 2 2 1
9.6. Regulador lineal cuadrático (LQR) continuo 403

Las ecuaciones de estado y coestado son



∂H
= x2 

ẋ1 =

∂λ1
Ecs. de estado
∂H 

ẋ2 = = −10λ2 − x2 = −x2 + u 
∂λ2

∂H
λ̇1 = − = −x1 


∂ x1
Ecs. de coestado
∂H 

λ̇2 = − = −x2 − λ1 + λ2 
∂ x2
La condición de frontera es

(φx + ψxT ν − λ)T |T d x(T ) + (φt + ψtT ν + H)|T dt = 0

Como d x(T ) = 0, φt |∞ = 0, ψ = 0, resulta

H∞ = 0, (x22 x12 − 2.5λ22 + λ1 x2 − λ2 x2 )|∞ = 0

La ecuación de Riccati, en estado estacionario, es

AT S + S A − SB R−1 B T S + Q = 0

Teniendo en cuenta que la ecuación, en variables de estado, del sistema es


      

 1 =  0 1  x1  + 0) u
ẋ2 0 −1 x2 1
| {z } | {z }
A B

y la función de coste
  
Z ∞ h i 0 1
1  x1  + 0.1 u 2 dt
J =
2 x1 x2  |{z}
0 0 −1 x2 R
| {z }
Q

y sustituyendo en la ecuación de Riccati se tiene


     
0 0  s11 s12  + s11 s12  0 1 
1 −1 s12 s22 s12 s22 0 −1
        
s s 0 h i s s 1 0 0 0
−  11 12    0.1 0 1  11 12  +  =
s12 s22 1 s12 s22 0 1 0 0
404 9. Control óptimo

Simplificando,
       
 0 s11 − s12  2
s12 s12 s22  1 0 0 0
− 0.1  + =
s11 − s12 2s12 − 2s22 s12 s22 2
s22 0 1 0 0
Igualando coeficientes,
 2

 −0.1s12 +1=0
s11 − s12 − 0.1s12 s22 = 0

 2
2s12 − 2s22 − 0.1s22 +1=0

 s11 = 4.16

s12 = 3.16


s22 = 3.16
Por tanto,
 
4.16 3.16
S= 
3.16 3.16
La señal de control óptima es
 
h i 4.16 3.16
u ∗ (t) = −K x(t) = −R −1 B T Sx(t) = −0.1 0 1   x(t)
3.16 3.16

= (−0.316 −0.316)x(t) = −0.316x1 (t)−0.316x2 (t) = −0.316y(t)−0.316 ẏ(t)

9.7. Principio del mínimo de Pontriaguin

Planteemos el problema del tránsito de un tren entre dos estaciones en un tiem-


po mínimo. Es evidente que si aceleramos al máximo desde la primera estación
y en un instante de tiempo por determinar, frenamos al máximo para llegar a la
segunda estación con una velocidad cero, el tiempo de tránsito entre las dos esta-
ciones será mínimo. Esta conclusión intuitiva se justifica porque estamos utilizando
toda la energía del sistema (el tren) para transitar entre dos estaciones. Esta idea da
lugar al principio del mínimo de Pontriaguin que permite, con un control en cade-
na abierta, mover el sistema desde un estado inicial a un estado final, en un tiempo
mínimo.
9.7. Principio del mínimo de Pontriaguin 405

9.7.1. Diseño con restricciones en la entrada


Consideremos el sistema ẋ = f (x, u, t), con la función de coste
Z T
J (t0 ) = φ(x(T ), T ) + L(x, u, t)dt,
t0

y con la restricción de estado final

ψ(x(T ), T ) = 0

y con x(t0 ) conocido. Consideremos el Hamiltoniano

H(x, u, λ, t) = L(x, u, t) + λT f (x, u, t)

Si no hay restricciones en la señal de control, el problema se puede resolver


según las expresiones de la sección anterior. Cuando la señal de control u(t) debe
pertenecer a una región admisible, la condición de estacionariedad debe ser reem-
plazada por la condición

H∗ (x ∗ , u∗ , λ∗ , t) ≤ H(x ∗ , u, λ∗ , t)

para todo u perteneciente a la región admisible. Es decir, el Hamiltoniano debe ser


minimizado en la region admisible de u para los valores óptimos del estado x ∗ y
coestado λ∗ . A esta condición se la conoce con el nombre de Principio del mínimo
de Pontriaguin. Haciendo los cambios evidentes, el principio sirve también para
calcular el máximo del funcional J , razón por la cual también es conocido en la
literatura científica como principio del máximo.

Ejemplo 9.7.1: El módulo de alunizaje se separa de una nave espacial en el tiem-


po t = 0 a una altura h de la superficie de la Luna, con una velocidad inicial v.
Suponiendo que la fuerza de gravedad se puede despreciar y que la masa del mó-
dulo es constante, las ecuaciones del movimiento vertical son
(
ẋ1 = x2
(9.7.1)
ẋ2 = u

donde x1 es la altura, x2 es la velocidad y u es la aceleración debida a los propul-


sores y que está sujeta a la restricción |u(t)| < 1. Las condiciones iniciales son

x1 (0) = h, x2 (0) = 0 (9.7.2)

Para un aterrizaje suave se necesita

x1 (T ) = 0, x2 (T ) = 0 (9.7.3)
406 9. Control óptimo

Una posible función de coste es


Z T
J = dt (9.7.4)
0

que minimiza el tiempo, por esta razón, el control realizado en este ejemplo es un
control en tiempo mínimo.
Solución:
El Hamiltoniano es
H = |u| + k + λ1 x2 + λ2 u (9.7.5)
Como |u(t)| < 1; el Hamiltoniano será mínimo cuando
(
u ∗ (t) = −1, si λ∗2 (t) > 0
(9.7.6)
u ∗ (t) = +1, si λ∗2 (t) < 0

por este motivo, a este tipo de control se le denomina Bang-Bang, ya que pasa de
un valor extremo al otro.
Las ecuaciones de coestado son

λ̇∗1 = 0, λ̇∗2 = −λ∗1 (9.7.7)

e integrando se obtiene

λ∗1 (t) = c1 , λ∗2 (t) = −c1 t − c2 (9.7.8)

donde c1 y c2 son constantes. Como λ∗2 es una función lineal de t que cambia a lo
sumo una vez en 0 ≤ t ≤ T , el control óptimo debe tomar una de las siguientes
formas: 
 + 1, 0 ≤ t ≤ T


 − 1, 0 ≤ t ≤ T
(9.7.9)

 + 1, 0 ≤ t ≤ t ; −1, t ≤ t ≤ T


1 1
− 1, 0 ≤ t ≤ t1 ; +1, t1 ≤ t ≤ T
Integrando las ecuaciones de estado con u = ±1 se obtiene

 x = ±1t2 + c t + c
1 3 4
2 (9.7.10)

x2 = ±t + c3

Eliminando t se obtiene

 1
 x1 (t) = x22 (t) + c5 , cuando u ∗ = +1
2 (9.7.11)

 x = − 1 x 2 (t) + c , cuando u ∗ = −1
1 6
2 2
9.7. Principio del mínimo de Pontriaguin 407

x2 C5 =0 C6 =0
x2

x1 x1

C5 <0 C5 >0 C6 <0 C6 >0

Fig. 9.2: Familia de trayectorias de las ecuaciones 9.7.11

Estas ecuaciones representan dos familias de parábolas


Si el estado inicial corresponde al punto R de la figura 9.3, la entrada es u ∗ (t) =
−1 para todo t. Si el estado inicial corresponde al punto S de la figura 9.4, la entrada
es u ∗ (t) = +1 para todo t. Si el estado corresponde al punto P de la figura 9.3, se
debe aplicar una entrada u ∗ (t) = +1 hasta llegar al punto R y a continuación una
entrada u ∗ (t) = −1 hasta alcanzar el origen O. Si el estado corresponde al punto
Q de la figura 9.4, se debe aplicar una entrada u ∗ (t) = −1 hasta llegar al punto S
y a continuación una entrada u ∗ (t) = +1 hasta alcanzar el origen O.
x2
R

u* = -1

x1
u* =+1

x0
P

Fig. 9.3: Trayectoria u ∗ = +1 seguida por u ∗ = −1


408 9. Control óptimo

x2
Q
x0
u* = -1

O x1

u* =+1
S

Fig. 9.4: Trayectoria u ∗ = −1 seguida por u ∗ = +1

Bibliografía

[1] M. Athans y P. Falb, Optimal Control McGraw-Hill, 1966.

[2] S. Barnett y R.G. Cameron, Introduction to Mathematical Control Theory


Oxford University Press, 1992.

[3] A. Jiménez y E. Jiménez, Introducción al Control Óptimo, Universidad Po-


litécnica de Madrid, E.T.S.I. Industriales, 1995.

[4] D.E. Kirk, Optimal Control Theory, Prentice Hall, 1970.

[5] F.L. Lewis, Optimal Control, John Wiley and Sons, 1986.
10. CONTROL DE SISTEMAS NO LINEALES

En el capítulo 4 se ha analizado el comportamiento de los sistemas no-lineales.


En esta parte nos centraremos en el problema de diseño de control de sistemas
no-lineales.
Existen dos tipos de no linealidades básicas que se pueden tener en cuenta
cuando se quiere controlar un sistema no-lineal:

Las que pueden analizarse a partir de la función descriptiva N, o del plano


de fases.

Las que corresponden a sistemas lineales con retardos puros.

10.1. Sistemas con retardo puro

Por ejemplo, consideremos el sistema de la figura. Desde que el sistema detecta


un cambio en la temperatura, hasta que la válvula actúa, abriendo o cerrando el
paso de combustible, pasará un tiempo T = VL , siendo V la velocidad del agua, L
la longitud del tubo y T el tiempo en segundos que transcurre desde que se acciona
la válvula hasta que llega el gas a la cámara.

v
L y(t)

r(t)
Horno Cámara
de gas

r(t) y(t)
G(s)e-sT

Fig. 10.1: Sistema con retardo


410 10. Control de sistemas no lineales

Al introducir un retardo puro en un sistema estable, el sistema puede pasar a


ser inestable. Para analizar este tipo de sistemas, se utiliza una técnica de control
que permite evitar estos problemas, denominada predictor de Smith y que intenta
adelantarse a la salida para evitar los retardos.

10.2. Predictor de Smith

r(t) + y(t) r(t) + y(t)


R'(s) G(s)e-sT R(s) G(s) e-sT
- -

Fig. 10.2: Esquema de control con a) el retardo dentro del bucle, y b) fuera del
bucle

Si se saca el retardo fuera del bucle de control, el comportamiento del sistema


será el deseado, aunque la salida se retrasará T unidades en el tiempo. La función
de transferencia del sistema original es (fig 10.2a)
R 0 (s)e−sT G(s)
M(s) = (10.2.1)
1 + R 0 (s)e−sT G(s)
Mientras que para el sistema deseado se tiene (fig 10.2b)
R(s)G(s) −sT
M(s) = e (10.2.2)
1 + R(s)G(s)
Como deseamos que sean iguales,
R 0 (s)e−sT G(s) R(s)G(s) −sT
0 −sT
= e
1 + R (s)e G(s) 1 + R(s)G(s)
Por tanto,
R 0 (s)[1 + R(s)G(s)] = R(s)[1 + R 0 (s)e−sT G(s)
R 0 (s) + R 0 (s)R(s)G(s) − R 0 (s)R(s)e−sT G(s) = R(s)
R 0 (s)[1 − R(s)G(s)e−sT + R(s)G(s)] = R(s)
De donde se obtiene el nuevo regulador denominado predictor de Smith, a partir
del regulador R(s):
R(s)
R 0 (s) = (10.2.3)
1 + R(s)G(s)[1 − e−sT ]
Este predictor puede entenderse como un regulador con una realimentación que
predice la salida del sistema tal y como se muestra en la figura 10.3. El esquema de
la figura 10.2a se puede rediseñar con 10.2.3, dando lugar al esquema de la figura
10.3. Nótese que el término G(s)[1 − e−sT ] predice la salida.
10.2. Predictor de Smith 411

10.2.1. Procedimiento de cálculo


1. Se calcula R(s) sin tener en cuenta el término correspondiente al retardo
e−sT .
2. Se calcula R 0 (s) a partir de R(s), según 10.2.3.

r(t) + + y(t)
R(s) G(s)e-sT
- -

G(s)(1-e-sT)

Fig. 10.3: Esquema del predictor de Smith. El término G(s)(1 − e−sT ) predice la
salida

Ejemplo 10.2.1: Consideremos el sistema en bucle cerrado que tiene como fun-
ción de transferencia en bucle abierto
1
G(s) =
s+1
con un retardo de 1.5 y con un regulador proporcional de valor 2.3. En este caso
el controlador es proporcional y lo que nos interesa es comprobar cuál es el efecto
del predictor de Smith.
Solución:

r(t) + + y(t) + 1
2.3 (1/(s+1))e-sT 2.3 e-1.5s
- - - s+1

(1/(s+1))(1-e-sT)

a) b)

Fig. 10.4: La respuesta está retardada pero el comportamiento es el correcto. En


los dos sistemas la respuesta es la misma

En la figura 10.4 se puede ver el sistema con retardo en bucle cerrado con y sin
predictor de Smith. En la figura10.6 se muestra a) el esquema de Simulink y en
b) se puede apreciar la pequeña diferencia en cuanto al comportamiento de ambos
sistemas ante entrada escalón.
412 10. Control de sistemas no lineales

2.3
s+1
Step Transfer Fcn Transport
Delay

Scope
1
2.3
s+1
Gain Transfer Fcn1 Transport
Delay1
1
s+1
Transfer Fcn2

Transport
Delay2

Fig. 10.5: Diagrama de Simulink del sistema con retardo y del sistema con retardo
y predictor de Smith
1.6

1.4 Sin predictor


de Smith

1.2

1
Con predictor
de Smith
0.8

0.6

0.4

0.2

−0.2
0 1 2 3 4 5 6 7 8 9 10

Fig. 10.6: Respuesta escalón del sistema con retardo y del sistema con retardo y
predictor de Smith

Ejemplo 10.2.2: Consideremos el sistema

e−2s
G(s) =
s+1
Vamos a construir el predictor de Smith de forma que el tiempo de establecimiento
sea a lo sumo de 3 seg.
Solución:
Para ello vamos a aplicar la técnica de asignamiento de polos. Como el sistema
10.2. Predictor de Smith 413

tiene un retardo de 2 seg, no se puede pedir que el tiempo de establecimiento sea


menor que eso si queremos que el controlador sea robusto. Por tanto, escogeremos,
por ejemplo, el valor de 3 seg. Como el tiempo de establecimiento es aproxima-
damente el tiempo de retardo mas tres o cuatro veces la constante de tiempo, los
polos dominantes deben estar a la izquierda de -4. Escojamos como polinomio
característico en bucle cerrado

Pc (s) = s 2 + 8s + 20

Esto significa que el polinomio característico del sistema R(s)(1/(s + 1)) al cerrar
el bucle es
1 + R(s)(1/(s + 1))
Si consideramos un controlador de tipo PI
p1 s + p0
R(s) =
s
tendremos la ecuación

(s + 1)s + ( p1 s + p0 ) = s 2 + 8s + 20

De aquí se deduce que el controlador será


7s + 20
R(s) =
s
El predictor de Smith será
7s+20
0 R(s) s
R (s) = =
1 + R(s)G(s)[1 − e−sT ] 1+ 7s+20 1
s s+1
[1 − e−sT ]

y en la figura 10.8 se puede ver el correspondiente esquema de Simulink y la res-


puesta ante escalón.

7s+20 1
s s+1
Step Transfer Fcn3 Transfer Fcn1 Transport Scope
Delay
1
s+1
Transfer Fcn2

Transport
Delay1

Fig. 10.7: Diagrama de Simulink del sistema con retardo y predictor de Smith
414 10. Control de sistemas no lineales

Respuesta escalon
1.4

1.2

0.8

0.6

0.4

0.2

0
0 5 10 15

Fig. 10.8: Respuesta escalón del sistema con retardo y predictor de Smith

10.3. Linealización por realimentación

Básicamente, consiste intentar realimentar el sistema no-lineal de tal forma


que la función de transferencia en cadena cerrada sea lineal (fig. 10.9). Para ello se
introduce en la realimentación un bloque de forma que el conjunto sea lineal.

+
PID NLineal
-

?
Lineal

Fig. 10.9: Esquema general de linealización por realimentación

Una vez linealizado, es posible controlarlo con un PID, por realimentación de


estado, etc. Veamos como se linealiza. Por ejemplo, consideremos el control de
altura h(t) de un depósito (fig. 10.10)
10.3. Linealización por realimentación 415

u(t)

A(h)
a h

Fig. 10.10: Esquema de un depósito

Si llamamos A(h) a la sección variable del depósito y a a la sección de salida,


la ecuación que modela el sistema es
Z h p
d
[ A(h)dh] = u(t) − a 2gh (10.3.1)
dt 0
Si el nivel deseado h d es muy diferente del nivel inicial h 0 , no se podrá linealizar
el modelo y habrá que utilizar técnicas de control del sistemas no-lineales, por
ejemplo, la linealización por realimentación.
La dinámica del sistema se puede reescribir como una ecuación diferencial.
p
u(t) = A(h)ḣ(t) + a 2gh(t) (10.3.2)

Está claro que el sistema es no lineal ya que aparece h. Como u(t) es la entrada
que nosotros damos y podemos modificarla de la forma que más nos convenga;
podremos compensar la no-linealidad:
p
u(t) = A(h)v(t) + a 2gh(t) (10.3.3)

Introducimos la entrada en esta forma para hacer el sistema lineal y a la nueva


entrada introducida v(t) se la denomina entrada equivalente. Para calcular u(t)
necesitamos saber A, a, h. Usando las dos últimas ecuaciones , se obtiene

ḣ(t) = v(t), (10.3.4)

que es un sistema lineal.


Escogiendo la nueva entrada v(t) = −α h̃(t), siendo h̃(t) = h(t) − h d el error
de nivel y con α > 0 entonces la dinámica del sistema en bucle cerrado queda en
forma lineal (fig. 10.12).
ḣ + α h̃ = 0. (10.3.5)
Como para t → ∞, h̃(t) → 0, se tiene
p
u(t) = a 2gh − A(h)α h̃ (10.3.6)
416 10. Control de sistemas no lineales

0.8

0.6
h(t)

0.4

0.2

0 1 2 3 4 5 6 7 8 9 10
tiempo (seg)

Fig. 10.11: Respuesta escalón en t = 1 del sistema ḣ(t) + αh(t) = 0

De la misma forma, si el nivel deseado es una función temporal conocida h d (t),


la entrada equivalente se debería haber escogido como

v(t) = ḣ d (t) − α h̃ (10.3.7)

Convirtiéndose el modelo en
h̃˙ + α h̃ = 0 (10.3.8)
que también verifica h̃(t) → 0 para t → ∞.

Las ideas del ejemplo anterior sobre linealización por realimentación pueden
ser aplicadas a clases enteras de sistemas no lineales descritos en forma canónica
controlable.
Un sistema no-lineal se puede escribir en forma canónica controlable si las
no-linealidades están concentradas en la última ecuación:

x (n) = f (x) + b(x)u(t) (10.3.9)

siendo u la entrada escalar de control, x = [x, ẋ, ẍ, . . . , x (n−1) ]T el vector de


estado y f (x) y b(x) funciones no lineales del estado. En forma matricial
   
 ẋ1   x1 
   
 ẋ2   x2 
 =  (10.3.10)
 ..   .. 
 .   . 
   
ẋn f (x) + b(x)u(t)
10.4. Linealización de entrada/salida 417

Si el sistema está en la forma canónica controlable, entonces b 6= 0. Si elegimos


como entrada
1
u(t) = [v(t) − f (x)] (10.3.11)
b(x)
y la introducimos en 10.3.9:

1
ẋn = f (x) + b(x)u(t) = f (x) + b(x) [v(t) − f (x)] (10.3.12)
b(x)

es decir, se pueden cancelar las no-linealidades y obtener una relación simple de


entrada-salida
ẋn = v(t) (10.3.13)

que es lineal en la nueva entrada v(t) y el estado x(t). ¿Cómo elegir v(t)? Si
consideramos v(t) = −a0 x − a1 ẋ − . . . − an−1 x (n−1) , y conociendo que ẋn = x (n)
(enésima derivada del estado x(t)), entonces

x (n) + an − 1x (n−1) + . . . + a1 ẋ + a0 x = 0 (10.3.14)

Si los polos de 10.3.14 son estables, la dinámica del sistema tendrá respuesta de
tipo exponencial estable (para t → ∞ se tiene x(t) → 0).

10.4. Linealización de entrada/salida

Consideremos el problema de seguimiento

ẋ = f (x, u)
(10.4.1)
y = h(x)

El objetivo es la salida y(t) siga a la señal de salida deseada yd (t). La solución


para ello es encontrar una relación directa y simple entra la salida y(t) y la entrada
u(t).

Ejemplo 10.4.1: Consideremos el sistema que tiene como ecuaciones de estado

x˙1 = sin x2 + (x1 + 1)x3


ẋ2 = x15 + x3 (10.4.2)
ẋ3 = x12 +u

y con ecuación de salida


y = x1 . (10.4.3)
418 10. Control de sistemas no lineales

Si y = x1 , entonces

ẏ = ẋ1 = sin x2 + (x2 + 1)x3


ÿ = ẍ1 = ẋ2 cos x2 + ẋ2 x3 + x2 ẋ3 + ẋ3 =
= (x15 + x3 ) cos x2 + (x15 + x3 )x3 + (x12 + u)x2 + (x12 + u) = (10.4.4)
= (x15 + x3 )(x3 + cos x2 ) + (x2 + 1)x12 + (x2 + 1)u =
= (x2 + 1)u + f 1 (x)

La relación entrada-salida es

ÿ = (x2 + 1)u + f 1 (x) (10.4.5)

Si elegimos
1
u= (v − f 1 ) (10.4.6)
x2 + 1
entonces
1
ÿ = (x2 + 1)u + f 1 (x) = (x2 + 1) (v − f 1 ) + f 1 = v (10.4.7)
x2 + 1
es decir el sistema viene dado por ÿ = v, que es lineal en entrada-salida.
Para el diseño del controlador de seguimiento

e = y(t) − yd (t) (10.4.8)

Se desea que el error tenga una dinámica de segundo orden

ë + k2 ė + k1 e = 0 (10.4.9)

Por tanto, si v tiene la forma

v = ÿd − k1 e − k2 ė (10.4.10)

la expresión de ÿ será
ÿ = ÿd − k1 e − k2 ė (10.4.11)
Notas:

Existe un punto singular x2 = −1 para el cual u = ∞.

Se necesita medir todos los estados.

Análisis de los resultados del ejemplo:

El sistema es de orden 3.

El modelo lineal de seguimiento 10.4.11 es sólo de orden 2.


10.4. Linealización de entrada/salida 419

Fig. 10.12: Error de seguimiento (trayectorias de ë + k2 ė + k1 e = 0)

Existe parte de la dinámica del sistema (en el ejemplo, de orden 3-2=1) que
no es observable con la linealización entrada-salida.

Esta parte de la dinámica se denomina dinámica interna. En nuestro ejemplo,


elegiremos el estado x3 , como el de dinámica interna.

ẋ3 = x1 −2 +u
1
ẋ3 = x12 + (v − f 1 ) (10.4.12)
x2 + 1
1
ẋ3 = x12 + ( ÿd − k1 e − k2 ė − f 1 )
x2 + 1

Si la dinámica interna es estable, el problema de seguimiento también lo


será.

Ejemplo 10.4.2: Consideremos el sistema



ẋ1 (t) = x14 (t)x2 (t) + t
ẋ2 (t) = x1 (t) sen(x2 (t)) + u(t) (10.4.13)
y(t) = x1 (t)

Se desea realizar una realimentación de entrada-salida para que responda como un


sistema de segundo orden con ζ = 0.7 y ωn = 1.
420 10. Control de sistemas no lineales

Solución: Se deriva y(t) sucesivamente hasta que aparezca la entrada u(t) en


la expresión correspondiente

y(t) = x1 (t)

ẏ(t) = ẋ1 (t) = x14 (t)x2 (t) + 2 (10.4.14)
ÿ(t) = ẍ1 (t) = 4x13 (t)ẋ1 (t)x2 (t) + x14 (t)ẋ14 (t)ẋ2 (t)
Sustituyendo el valor de ẋ1 y ẋ2 se tiene
h √i
ÿ(t) = 4x13 (t) x14 (t)x2 (t) + t x2 (t) + x14 (t) [x1 sen x2 (t) + u(t)]

es decir

ÿ(t) = 4x17 (t)x2 (t) + 4x13 (t)x2 (t) 2 + x15 (t) sen x2 (t) + x14 (t)u(t)

Llamando f 1 a la parte que no multiplica a u(t)

ÿ(t) = f (t) + x14 (t)u(t) (10.4.15)

Si elegimos
1
u(t) = (v − f (t)
x14 (t)
entonces  
1
ÿ(t) = (t) + x14 t) (v − f (t)
x1 (t)
4

Como queremos que la respuesta del sistema sea la de un sistema de segundo orden,
y denominando e(t) al error de seguimiento entre la salida del sistema y la salida
deseada, tendremos que e(t) = y(t) − yd (t)
)
ÿ(t) = v(t)
⇒ v(t) = ë(t) + ÿd (t)
ë(t) = ÿ(t) − ÿd (t)

dado que se desea que la respuesta sea de segundo orden, tendrá una ecuación de
la forma
ë(t) + K 1 ė(t) + K 2 e(t)
y la expresión de v será
v(t) = ë(t) + ÿd (t)
Como queremos que ζ = 0.7 y ωn = 1

α [ë(t) + K 1 ė(t) + K 2 e(t)] = s 2 + 2ζ ωn s + ωn2

Suponiendo condiciones iniciales nulas

s 2 + K 1 s + K 2 = s 2 + 2ζ ωn s + ωn2
10.4. Linealización de entrada/salida 421

Por tanto
ωn2 = K 2 = 1 ⇒ K 2 = 1
2ζ ωn = K 1 ⇒ 2 × 0.7 × 1 = 1.4 = K 1
La función v(t) es

v(t) = ÿd (t) − K 1 ( ẏd (t) − ẏ(t) − K 2 (yd (t) − y(t)))

En el dominio de la frecuencia, con condiciones iniciales nulas

V (s) = s 2 Yd (s) − K 1 (sYd (s) − sY (s)) − K 2 (Yd (s) − Y (s)

Como ÿ(t) = v(t)


1
Y (s) = ⇒ V (s) = s 2 Y (s)
s2
Por tanto

s 2 Y (s) = s 2 Yd (s) − K 1 (sYd (s) − sY (s)) − K 2 (Yd (s) − Y (s))

Como la entrada del sistema es Yd (s) y la salida es Y (s), la función de transferencia


es
Y (s)
G(s) =
Yd (s)
Operando

s 2 Y (s) − K 1 sY (s) − K 2 Y (s) = s 2 Yd (s) − K 1 sYd (s) − K 2 Yd (s)

(s 2 − K 1 s − K 2 Y (s)) = (s 2 − K 1 s − K 2 Yd (s))
Y (s)
=1
Yd (s)
Como E(s) = Y (s) − Yd (s) se tiene

(s 2 − K 1 s − K 2 )(Y (s) − Yd (s)) = (s 2 − K 1 s − K 2 )E(s) = 0

luego
v(t) = ë(t) + ÿd (t)
ë(t) + 1.4ė(t) + e(t) = 0
Por tanto,
v(t) = ÿd (t) − 1.4ė(t) − e(t)
422 10. Control de sistemas no lineales

.. Y(s)=V(s)/s2
y
d
s2
.
y (t) e(t) n(t) xn=x41x2 +sqrt(2) y(t)
d Reg y=x1
n=v-f .
x2=x1 senx2 +u

..
y=v(t)

Fig. 10.13: Esquema de control del sistema del ejemplo 10.4.2

Lw

α CG ala elevador
E
horizontal CL
d
l LE

Fig. 10.14: Sistema del ejemplo 10.4.3

Ejemplo 10.4.3: Un ejemplo clásico del efecto de un cero en el semiplano dere-


cho es el problema de controlar la altura de un avión usando un elevador.
Consideremos el sistema de la figura consistente en un avión donde

Cl Centro de aplicación de las fuerzas de elevación. L w .

C g Centro de masas.

m masa del avión.

J momento de inercia en torno a C g .

α, E ángulos pequeños.

v velocidad lineal de avance (constante).

h altitud.

L E fuerza de elevación.

L w = C zw α, siendo C zw una constante de proporcionalidad.


10.4. Linealización de entrada/salida 423

L E = C z E (E − α), siendo C z E una constante de proporcionalidad.

El modelo del movimiento vertical (en altitud) del avión viene dado por el
balance de momentos

J α̈ + bḃ + (C z E l + C zw d)α = C z E l E (10.4.16)

y el balance de fuerzas

m ḧ = (C z E + C zw )α − C z E E (10.4.17)

El sistema en bucle abierto será estable si el balance de momentos lo es, por lo


que d > 0. Por tanto el centro de gravedad debe estar por delante del centro de
elevación.
Supongamos que

J = 1, m = 1, C z E = 1, C zw = 5, l = 3, d = 0.2, b = 4 (10.4.18)

entonces las funciones de transferencia del sistema son


α(s) 3 3
= 2 = (10.4.19)
E(s) s + 4s + 4 (s + 2)2
h(s) (s + 6.24)(2.24 − s)
= (10.4.20)
E(s) s 2 (s + 2)2
En el instante t=0, se aplica una entrada escalón unidad. Según los teoremas
del valor inicial y del valor final se tiene

ḧ(t = 0+ ) = −1 < 0, ḧ(t = +∞) = 3.5 > 0

Las respuestas temporales de h y de ḧ se pueden ver en la figura 10.15. En dicha


figura se puede ver como el avión empieza moviéndose en sentido contrario y des-
pués se recupera. Tal comportamiento es típico de los sistemas que tienen algún
cero en el semiplano derecho (sistemas de fase no mínima).
Vamos a ver la dinámica interna asociada. Definiendo el estado como x =
[α α̇ h ḣ]T , las ecuaciones de estado son

ẋ1 = x2
ẋ2 = −4x2 − 4x1 + 3E
ẋ3 = x4
ẋ4 = 6x1 − E

La salida que nos interesa es la altitud del avión

y = x3
424 10. Control de sistemas no lineales

7
1.4

6
1.2

5 1

4 0.8
h´´

3 0.6

h
2 0.4

1 0.2

0 0

−1 −0.2
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
tiempo tiempo

Fig. 10.15: Respuestas temporales de h y de ḧ para el sistema del ejemplo 10.4.3

Derivando hasta que la entrada E aparezca se tiene

ÿ = ẍ3 = ẋ4 = 6x1 − E

Escogiendo ahora como ley de control para E

E = 6x1 − ÿd + ỹ˙ + ỹ

donde ỹ = y − yd . Entonces

ỹ¨ + ỹ˙ + ỹ = 0

La correspondiente dinámica interna es

ẋ2 = −4x2 − 4x1 + 3(6x1 − ÿd + ỹ˙ + ỹ)

es decir
α̈ + 4α̇ − 14α = 3(− ÿd + ỹ˙ + ỹ) (10.4.21)
y, por tanto, el sistema es inestable. Específicamente, los polos del miembro
izquierdo de 10.4.21 son los ceros de la función de transferencia 10.4.20.

10.4.1. Grado relativo


Vamos a sistematizar la aplicación de la linealización de entrada-salida para los
sistemas de la forma
x = f (x) + ug(x)
(10.4.22)
y = h(x)
donde f , g y h son funciones analíticas. Se supone que la entrada y la salida son
escalares. Es importante destacar que y no depende directamente de u, sino que la
10.4. Linealización de entrada/salida 425

dependencia tiene lugar a través de x. Al cambiar la u, no cambia inmediatamente


y, sino que cambia gradualmente por medio de x. Si derivamos la salida, se obtiene

ẏ = h x (x) ẋ = h x (x)[ f (x) + g(x)u]


 
∂h
donde h x = ∂ x1
, . . . , ∂∂hxn es el gradiente de h. De forma más compacta

ẏ = h x f + h x gu

Se dice que el sistema tiene grado relativo igual a 1 si h x g ≡


/ 0, es decir que
h x g no es cero para todos los valores de x y, por tanto, ẏ depende de u, al menos
para algunos valores de x.
Supongamos ahora que h x g ≡ 0. Derivando de nuevo

ÿ = (h x f )x f + (h x f )x gu

El sistema tiene grado relativo 2 si

h x g ≡ 0, (h x f )x g ≡
/ 0

Es decir, que ÿ depende directamente de u.


Introduciendo las derivadas de Lie en la dirección de f y de g

∂ ∂ ∂ ∂
L f = f1 + . . . + fn , L g = g1 + . . . + gn
∂ x1 ∂ xn ∂ x1 ∂ xn

se puede dar las siguientes definiciones

Definición 10.4.1: El grado relativo ν es el menor entero positivo tal que

L g L ν−1
f h ≡
/ 0.

Definición 10.4.2: Un sistema tiene grado relativo fuerte ν si tiene grado relativo
ν y además
L g L ν−1
f h 6 = 0, ∀x.

Para los sistemas de una entrada y una salida dados mediante una función de
transferencia, el grado relativo es la diferencia entre el grado del denominador y el
del numerador.
426 10. Control de sistemas no lineales

10.4.2. Linealización de entrada-salida y grado relativo


Si un sistema con un grado relativo fuerte ν. La derivada ν-ésima es

y (ν) = L νf h + L g L ν−1 ν−1


f hu, y L g L f h 6 = 0.

Si la entrada introducida es
1
u= (r − L νf h)
L g L ν−1
f h

la salida obtenida será


y (ν) = r
De esta forma conseguimos que el sistema se comporte de modo lineal y, al mismo
tiempo que sigue a la referencia.

10.5. Linealización en la entrada/estado

Consideremos un sistema no lineal cuya dinámica viene dada por la expresión

ẋ = f (x, u) (10.5.1)

donde u es la entrada de control que se considera escalar.


La idea consiste en dividir el control en dos fases:

1. Encontrar las transformaciones de:

a) Estado: z = z(x)
b) Entrada: u = u(x, v)

de tal forma que la dinámica no lineal se transforme en lineal: ż = Az + bv

2. Aplicar el clásico método de realimentación del estado.

Ejemplo 10.5.1: Consideremos por ejemplo el sistema:

ẋ1 = −2x1 + ax2 + sin x1


(10.5.2)
ẋ2 = −x2 cos x1 + u cos(2x1 )

Como transformación del estado se puede elegir

z 1 = x1
(10.5.3)
z 2 = ax2 + sin x1

es decir, x2 = a1 (z 2 − sin z 1 ).
10.5. Linealización en la entrada/estado 427

Por tanto
ż 1 = −2z 1 + z 2
1 1
(ż 2 − ż 1 cos z 1 ) = − (z 2 − sinz 1 ) cos z 1 + u cos(2z 1 )
a a
(10.5.4)
ż 2 = ż 1 cos z 1 − z 2 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
ż 2 = (−2z 1 + z 2 ) cos z 1 − z 2 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
ż 2 = −2z 1 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
De donde,
ż 1 = −2z 1 + z 2
(10.5.5)
ż 2 = −2z 1 cos z 1 + sin z 1 cos z 1 + au cos(2z 1 )
Si seleccionamos como transformación de la entrada:
1
u= (v − cos z 1 sin z 1 + 2z 1 cos z 1 ) (10.5.6)
a cos(2z 1 )
El sistema queda
ż 1 = −2z 1 + z 2
(10.5.7)
ż 2 = v
que es lineal. Por tanto, el problema se transforma en estabilizar el nuevo sistema.
El sistema 10.5.7 es lineal y controlable, por lo que la realimentación de estado es
v = −k1 z 1 − k2 z 2 (10.5.8)
Si, por ejemplo, v = −2z 2 entonces
ż 1 = −2z 1 + z 2
(10.5.9)
ż 2 = −2z 2
que tiene polos dobles en −2 en bucle cerrado.
Transformando a x1 y x2
z 1 = x1
(10.5.10)
z 2 = ax2 + sin x1
es decir,
x1 = z 1
1 (10.5.11)
x2 = (z 2 − sin z 1 )
a
y la entrada u correspondiente será,
1
u= (−2ax2 − 2 sin x1 − cos x1 sin x1 + 2x1 cos x1 ) (10.5.12)
a cos(2x1 )
El esquema de control será
428 10. Control de sistemas no lineales

r=0 + v u . x
v=-kTz u=u(x,v) x=f(x,u)
-
Bucle de linealización

z
z=z(x)
Bucle de posicionamiento
de polos

Fig. 10.16: Sistema del ejemplo 10.5.1

6
x
2

0
x1

−2

−4

−6
−6 −4 −2 0 2 4 6

Fig. 10.17: Respuesta del sistema del ejemplo 10.5.1 para a = 1

Observaciones:

Se debe conocer muy bien el modelo no lineal del sistema. De lo contrario


no se anularán las no-linealidades y e conjunto del sistema no será lineal.

El problema de seguimiento no es fácil dado que se necesita trabajar en la


variable z y el seguimiento se debe hacer en x, por lo que se requiere una
transformación continua.

Hay que trabajar en z y por lo tanto, o z es medible o hay que observarla a


partir de x.
10.5. Linealización en la entrada/estado 429

6
x
2

0
x1

−2

−4

−6
−6 −4 −2 0 2 4 6

Fig. 10.18: Respuesta del sistema del ejemplo 10.5.1 para a ligeramente distinta
de la que se supone

Teorema 10.5.1: Sea el sistema

x = f (x) + ug(x)
(10.5.13)
y = h(x)

con grado relativo fuerte n igual al número de variables de estado. Entonces existe
una realimentación de estado que lo convierte en lineal con las variables de estado


 z1 = y


 z 2 = ẏ
(10.5.14)

 ...


 z = y (n−1)
n

Demostración
Si se consideran las variables de estado y la salida

 ż 1 = z 2


 ż = z
2 3
(10.5.15)

 . . .


ż n = ξ(z) + η(z)u
430 10. Control de sistemas no lineales

y = z1 (10.5.16)
se tiene que la realimentación
r −ξ
u= (10.5.17)
η
hace el sistema lineal.

Ejemplo 10.5.2: Consideremos el sistema



 ẋ1 = x2

ẋ2 = ln(x3 )


ẋ3 = u
y = x1
Las derivadas de la salida son
1 1
ẏ = x2 , ÿ = ln(x3 ), y (3) = ẋ3 = u
x3 x3
Considerando las variables de estado

 ż 1 = x1

ż 2 = x2


ż 3 = ln(x3 )

en las nuevas variables el sistema es




 ż 1 = z 2


ż 2 = z 3

 1 1 1

 ż 3 = = u= z u
x3 x3 e3
y1 = z 1
y si se toma como entrada
r −0
u= = r ez3 ,
1/ex p(z 3 )
como
1 1 1
y (3) = u = r e z3 = r x3 = r,
x3 x3 x3
se tiene que
y (3) = r
que es lineal y de orden 3, por lo que no existen estados internos.
10.6. Diseño de un controlador para un sistema con una no linealidad 431

10.6. Diseño de un controlador para un sistema con una no


linealidad

Consideremos un sistema como el de la figura 10.19 con una no linealidad que


viene dada por una tabla de datos obtenidos de forma experimental, vamos a ver
como se puede diseñar mediante MATLAB, un controlador de tipo PI, de forma
que se minimice el error cuadrático.

Fig. 10.19: Diagrama de Simulink del sistema en bucle cerrado

La no linealidad se da en una forma poco conveniente para su uso en MAT-


LAB, por ello será necesario hacer una interpolación y suavizamiento de los datos
experimentales dados por la tabla 10.1. Para ello se puede usar la función spline de
MATLAB en la región activa de las características de la no linealidad. Obsérvese el
archivo de la función funcaprox.m para ver cómo se emplea la función spline para
evaluar el valor de m a partir de los valores de la tabla. La aplicación de un spline
a la no-linealidad se presenta en la figura 10.21.
A continuación es necesario pasar a variables de estado los bloques correspon-
dientes a la planta, el controlador y el sensor. Como la función de transferencia de
1
la planta es y = s 2 +7s m ⇒ sy = 7m s
− 7y, por tanto llamando x1 = y y x2 7m
s
, se
tiene
x2
ẋ1 = −7x1 +
7
ẋ2 = 7m
Para el controlador tendremos

e = r − 3y = r − 3x1

y llamando ẋ3 = K i e, donde K i es la ganancia de la acción integral, se tiene


 
Ki
u = Kp + e = K p e + x3 .
s
432 10. Control de sistemas no lineales

u m

≤ −1 -1
-0.9 -0.8
-0.6 -0.5
-0.3 -0.3
0 0
0.3 0.5
0.6 0.8
0.9 1.5
≥1 2

Tab. 10.1: Datos experimentales de la no linealidad

Para diseñar el controlador PI, se calcula la Integral del Error cuadrático (In-
R t 2 Squared Error o ISE) mediante la variable ẋ4 = e (t), es decir, x4 (t) =
2
tegral
0 e (t) dt, de manera que I S E = lim x 4 (t). En la práctica, bastará tomar un va-
t→∞
lor del tiempo suficientemente grande para que el sistema se estabilice en el valor
de referencia.
Para resolver el sistema de ecuaciones diferenciales se utiliza la orden ode45,
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
que integra ẋ = f (t, x), donde el tiempo va desde t0 hasta t f , con las condiciones
iniciales x0 y la función f viene definida por la función f uncapr x.m de MATLAB
del cuadro 10.3.
Para ejecutar el programa basta llamar al script ise.m del cuadro 10.2 para ob-
tener la ejecución del cuadro 10.4 y la figura 10.21. Para obtener más precisión o
cambiar el intervalo a estudiar, basta modificar la línea del for,
for Kp=0:.2:8
que estudia el intervalo [0, 8] a incrementos de 0.2.
Como se puede apreciar en la figura 10.22 el ISE decrece hasta un cierto valor
(K p = 1.4) que es el mínimo encontrado, y después crece hasta un valor próximo a
1, con pequeñas subidas y bajadas pero no llega a estabilizarse para valores grandes
de K p . El controlador PI encontrado es
   
Ki 1
Gc = K p + = 1.4 + .
s s
10.6. Diseño de un controlador para un sistema con una no linealidad 433

clear all
global Kp
Kpbest=0;ISEbest=1000; t0=0;tf=6;
x0=zeros(1,4);
for Kp=0:.2:8
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
IL=length(x(:,4));
disp(strcat(’Kp=’,num2str(Kp),’, ISE= ’,num2str(x(IL,4))));
if x(IL,4)<ISEbest
ISEbest =x(IL,4);
Kpbest=Kp;
end
end
Kp=Kpbest;
[t,x]=ode45(’funcaprx’,[t0,tf],x0);
IL=length(x(:,4));
axis([0 6 0 2]);
plot(t,x(:,1));
text(1.4,.7,’Ki=1 fijo’);
text(1.4,.5,strcat(’Kp= ’,num2str(Kpbest,3),’ por simulacion’));
text(1.4,.3,strcat(’ISE= ’,num2str(x(IL,4))));
ylabel(’Respuesta’);xlabel(’Tiempo(s)’);

Tab. 10.2: Programa principal ise.m para el diseño del controlador PI


434 10. Control de sistemas no lineales

function xdot=funcaprx(t,x) global Kp Ki=1.11;r=2;


vu=[-1,-.9,-.6,-.3,0,.3,.6,.9,1];
vm=[-1,-.8,-.5,-.3,0,.5,0.8,1.5,2];
xdot=zeros(4,1);
xdot(1)=-7.*x(1)+x(2); e=r-3.*x(1);u=Kp*e+x(3);
if u<-.9
m=-1;
elseif u>.9
m=2;
else
m=spline(vu,vm,u);
end
xdot(2)=7*m;
xdot(3)=Kp*Ki*e;
xdot(4)=e^2;

Tab. 10.3: Función funcaprx.m utilizada por el script ise.m

Kp ISE Kp ISE Kp ISE

0 832 0.2 7.7498 0.4 2.2873


0.6 1.193 0.8 0.9552 1 0.8864
1.2 0.8750 1.4 0.8632 1.6 0.8725
1.8 0.9098 2 0.9095 2.2 0.9525
2.4 0.9512 2.6 1.0003 2.8 1.0009
3 1.0010 3.2 1.0026 3.4 1.0035
3.6 1.0038 3.8 1.0035 4 0.9983
4.2 0.9986 4.4 0.9997 4.6 0.1.0376
4.8 1.0371 5 1.0367 5.2 1.1478
5.4 1.1493 5.6 1.1501 5.8 1.1503
6 1.1517 6.2 1.1527 6.4 1.1533
6.6 1.1523 6.8 1.1404 7 1.1565
7.2 1.1857 7.4 1.1652 7.6 1.1529
7.8 1.1717 8 1.1673

Tab. 10.4: Resultados de la ejecución del programa ise.m


10.6. Diseño de un controlador para un sistema con una no linealidad 435

No linealidad definida mediante tabla No linealidad definida por splines


3 3

2.5 2.5

2 2

1.5 1.5

1 1

m
0.5
m

0.5

0 0

−0.5 −0.5

−1 −1

−1.5 −1.5

−2 −2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
u u

Fig. 10.20: La no linealidad expresada por medio de a) una tabla y b) de splines

0.8

0.7 Ki=1 fijo

0.6

0.5 Kp=1.4 por simulacion


Respuesta

0.4

0.3 ISE=0.8632

0.2

0.1

0
0 1 2 3 4 5 6
Tiempo(s)

Fig. 10.21: Respuesta escalón del sistema con el controlador diseñado


436 10. Control de sistemas no lineales

2.5

2
ISE

1.5

0.5

0
0 1 2 3 4 5 6
Kp

Fig. 10.22: Evolución del I S E al variar K p para K i = 1


10.7. Control deslizante 437

10.7. Control deslizante

Supongamos un sistema de segundo orden expresado por las ecuaciones

ẋ1 = x2
ẋ2 = f (x) + b(x)u

donde f (x) y b(x) son funciones no lineales no conocidas, donde b(x) ≥ b0 >
0 . Se desea diseñar una ley de control que restrinja los cambios de estado del
sistema a movimientos de los mismos a lo largo de la recta de control que pase
por el origen del plano de fase s = a1 x1 + x2 = 0. A lo largo de esta recta de
control (línea de deslizamiento) el movimiento del sistema viene caracterizado por
la ecuación ẋ1 = −a1 x1 . Si se toma a1 > 0, el estado x(t) del sistema tenderá
a cero a medida que t tiende a ∞ y con una velocidad que dependerá del valor
de a1 que se haya tomado. El aspecto más interesante de este enfoque consiste en
que si el movimiento del sistema se realiza por dicha línea de deslizamiento, los
cambios de estado del sistema y, por tanto, su conducta, vienen determinados por
la definición de la recta de control que se haya hecho, con independencia de las
funciones no lineales f (x) y b(x) del sistema.
El primer problema con el que nos encontramos al realizar este planteamiento
es ¿cómo podemos conseguir que la trayectoria del sistema alcance la recta de
deslizamiento y se mantenga sobre ella?
Para abordar esta cuestión nos apoyaremos en los teoremas de estabilidad de
Liapunov y especialmente en la utilización de una función de Liapunov que nos
garantice la estabilidad del sistema al introducir la ley de control que obligue al
mismo a moverse por la línea de deslizamiento. Recordemos que el teorema de
Liapunov (5.2.1) nos decía que si existía una función de Liapunov V (x) para el
sistema en un dominio que contenga al origen, entonces el origen será estable en
el sentido de Liapunov si V̇ (x) es una función definida negativa en un entorno del
origen Sr (0). Si además, V (x) → ∞ cuando ||x|| → ∞, el sistema es global y
asintóticamente estable.
Si definimos como función de Liapunov V (x) = 12 s 2 , entonces V̇ (x) = s ṡ, y
teniendo en cuenta que s = a1 x1 + x2 , ṡ tomará la forma

ṡ = a1 ẋ1 + ẋ2 = a1 x2 + f (x) + b(x)u

La elección de V (x) es tal que es semidefinida positiva. Si se verifica que


V̇ (x) ≤ 0, el sistema será estable en el sentido de Liapunov.
Si se cumple la desigualdad

a1 x2 + f (x)
≤ ρ(x), ∀x ∈ R2
b(x)
438 10. Control de sistemas no lineales

para alguna función conocida ρ(x) > 0. Para este caso, la derivada de la función
de Liapunov es
V̇ = s ṡ = s[a1 x2 + f (x)] + sb(x)u ≤ b(x)|s|ρ(x) + b(x)su
Si tomamos como ley de control u = −K (x)sign(s), donde K (x) ≥ ρ(x) + K 0 ,
con K 0 > 0.
Entonces, introduciendo la expresión de la ley de control en V̇ (x), tendremos
que
V̇ (x) ≤ b(x)|s|ρ(x) − b(x)s[ρ(x) + K 0 ]sign(s)
≤ −b(x)K 0 |s|
≤ −b0 K 0 |s|
y como se puede observar el valor de la derivada de la función de Liapunov toma
siempre valor negativo, por lo que la ley de control introducida en el sistema hará
que éste sea estable.
De lo anteriormente expuesto se puede extraer que el movimiento del sistema
tendrá dos fases. En la primera se alcanzará la superficie de deslizamiento y en
la segunda fase el movimiento del sistema estará restringido a la línea de control
donde s = 0 y donde la dinámica del sistema en bucle cerrado queda reducida a
ẋ1 = −a1 x1 . El diseño de la ley de control −K (x)sign(s) requiere únicamente del
conocimiento de una cota superior de la función ρ(x), con lo que tomando un valor
de K tal que K > ρ(x) la ley de control nos quedará u = −K sign(s).
La característica más notable de esta ley de control consiste en que es, básica-
mente, un relé. Con él conseguimos que un sistema no lineal del que desconocemos
las no-linealidades se comporte como un sistema lineal a lo largo de la superficie
de deslizamiento con un dispositivo de control tan simple como un relé.
Ejemplo 10.7.1: Dadas las ecuaciones de un péndulo invertido (Fig. 10.23)

 ẋ1 = x2
 ẋ2 = − g sen(x1 ) − c0 x2 + 1 u
l m ml 2
donde x1 = θ, x2 = θ̇ y u = F, siendo m, l, c0 y g respectivamente la masa,
longitud, coeficiente de fricción y aceleración de la gravedad. Se desea estabilizar
el péndulo en la posición θ = 0.
Tomando como ley de control la expresión
u = −K sign(s) = −K sign(a1 x1 + x2 )
y eligiendo a1 = 1, tenemos que f (x) = − gl sen(x1 ) − cm0 x2 , b(x) = 1
ml 2
, de donde
se obtiene
a1 x2 + f (x)
= |l 2 (m − c0 )x2 − mgl sen(x1 )|
b(x)
≤ l 2 |m − c0 |2π + mgl ≤ K
10.7. Control deslizante 439

Péndulo

θ
l mg

Carro

Fig. 10.23: Esquema del péndulo invertido

x2
u
x1

péndulo
Scope

x1
u
x2

controlador

Scope1

Fig. 10.24: Esquema Simulink de bucle cerrado del ejemplo 10.7.1

x1_dot 1 x1
s 2
x1
Integrator1

x2_dot x2
1
f(u) s 1
1 x2
u -1.5*sin(u(2))-0.75*u(1)+0.75*u(3) Integrator

Fig. 10.25: Esquema Simulink del bloque del sistema del ejemplo 10.7.1

para determinar la cota superior se ha supuesto que x2 toma un valor máximo de 2π


440 10. Control de sistemas no lineales

0.1

delta
1 sin 1
x1 u
Trigonometric
Function

2 10
x2 Gain1 Saturation
Product

|u| 4
Abs Gain

Constant

Fig. 10.26: Esquema Simulink del bloque del controlador del ejemplo 10.7.1

1
x1
x2
0.5
x1, x2

−0.5
epsilon=0.1

−1
0 1 2 3 4 5 6 7 8 9 10
tiempo

2
u
0

−2
u

−4

−6

−8
0 1 2 3 4 5 6 7 8 9 10
tiempo

Fig. 10.27: Resultados de la simulación del ejemplo 10.7.1

y que los valores máximo y mínimo de sen(x1 ) son +1 y −1.


Si tomamos l = 1, m = 0.1, c0 = 0.02 y g = 10, entonces K = 1.51.
Tomando K = 2, la ley de control nos quedará de la siguiente forma

u = −2sign(x1 + x2 )
10.7. Control deslizante 441

1
x1
x2
0.5
x1, x2

−0.5
epsilon=0.01

−1
0 1 2 3 4 5 6 7 8 9 10
tiempo

2
u
0

−2
u

−4

−6

−8
0 1 2 3 4 5 6 7 8 9 10
tiempo

Fig. 10.28: Resultados de la simulación del ejemplo 10.7.1

10.7.1. Superficie de deslizamiento


A continuación, se va a generalizar el concepto de control deslizante a lo largo
de una línea de deslizamiento, para un sistema de orden superior a dos y donde el
estado final del sistema es un estado xd elegido por el diseñador.
Consideremos el sistema

x (n) = f (x) + b(x)u (10.7.1)

donde f (x) es en general no lineal y su conocimiento no es exacto, pero está


acotado por una función continua de x, y xd (0) = x(0) es la posición inicial.
El problema de seguimiento consiste en minimizar el error de seguimiento:
x̃ = x − xd .
Definiremos una superficie s(t), en el espacio de estados Rn , mediante una
ecuación escalar s(x, t) = 0, donde
 n−1
d
s(x, t) = +λ x̃ (10.7.2)
dt
Por ejemplo, si n = 2
s = x̃˙ + λ x̃ (10.7.3)
En este caso, s es una función de peso entre el error de velocidad y el error de
posición y s(t) queda reducida a una curva en el espacio de estados.
442 10. Control de sistemas no lineales

Si n = 3,
s = x̃¨ + 2λ x̃˙ + λ2 x̃ (10.7.4)

el problema de seguimiento x ≡ xd es equivalente a mantenerse en la superficie


S(t) para t > 0. s ≡ 0 representa una ecuación diferencial cuya única solución es
x̃ ≡ 0.
De esta forma, el problema de seguimiento xd (vector n-dimensional) se trans-
forma en un problema de primer orden en s, ya que la x̃ (n) se obtiene diferenciando
una vez x̃ (n−1) = s.

 n−1
d
s(x, t) = +λ x̃ (10.7.5)
dt

Derivando sólo una vez, se obtiene x̃ (n) que es la entrada.


La acotación en s nos lleva a la acotación en x̃:
Si x̃(0) = 0 tenemos:

|s(t)| ≤ 8, (∀t ≥ 0) ⇒ (∀t ≥ 0), | x̃ (i) (t)| ≤ (2λ)i ε, i = 0, 1, . . . , n − 1


(10.7.6)
donde ε = 8/λ .
n−1
n−1
Si tenemos s(x, t) = dtd + λ x̃, se puede obtener x̃ de la forma

s 1 y1 1 1 x~
... ...
s+λ s+λ s+λ

n-1

Fig. 10.29: Obtención de x̃ a partir de s (acotación de x̃ )

Según la definición 10.7.2, el error de seguimiento x̃ se obtiene a partir de s a


través de la secuencia de filtros paso-bajo de primer orden.
Teniendo en cuenta que |s(x, t)| ≤ 8 implica que |s(s)| ≤ 8s , se tiene
     
−1 1 −1 8 1 −1 8/λ 8/λ
y1 (t) = L L [s(x, t)]=L =L − =
s+λ s s+λ s s+λ
8 8
= (1 − e−λt ) ≤
λ λ
(10.7.7)
10.7. Control deslizante 443

es decir
8
|y1 (t)| ≤
λ
...
8 n−1−i
|yi (t)| ≤ (10.7.8)
λ
...
8 n−1
|yn−1 (t)| ≤
λ
Por tanto,
|x̃| ≤ ε (10.7.9)
Para obtener x̃ (i) hay que derivar i veces x̃

s 1 1 z1 1 1 x~(i)
... ...
s+λ s+λ s+λ s+λ

n-1-i i

Fig. 10.30: Acotación en x ˜(i)

s s+λ−λ λ
= =1− (10.7.10)
s+λ s+λ s+λ

" i #  
(i) 8 n−i−1 −1 λ 8 n−i−1 λ i
x̃ ≤ L 1− ≤ 1+ = (2λ)i ε (10.7.11)
λ s+λ λ λ

Supongamos que elegimos una entrada del sistema u tal que, por ejemplo

1 d 2
s ≤ −η|s| (10.7.12)
2 dt
donde η es una constante positiva. Esta inecuación indica que el cuadrado de la
distancia a la superficie S, medida como s n , decrece con el tiempo.
Esta entrada u debe verificarse fuera de la superficie S, ya que una vez que la
trayectoria está en S, se mantendrá en ella. La condición se denomina condición de
deslizamiento.
Otra posibilidad es que la superficie s(t) sea a la vez dinámica y el lugar de la
superficie.
444 10. Control de sistemas no lineales

s(t)

Fig. 10.31: Condición de deslizamiento

 n−1
d
+λ x̃ = 0 (10.7.13)
dt
Supongamos que inicialmente estamos fuera se S: s(t = 0) > 0 y que t2 es el
tiempo para alcanzar la superficie s = 0.
Integrando la condición de deslizamiento,
Z t=t2
1 d 2
s dt = s(t = t2 ) − s(t = 0) = 0 − s(t = 0) ≤ −η(t2 − 0) (10.7.14)
2 t=0 dt

de donde que el tiempo t2 ≤ s(t−0) η


es finito. Esto implica que el tiempo t2 pa-
ra alcanzar la superficie es finito. Pero una vez en la superficie, el problema de
seguimiento se resuelve exponencialmente con constante e−λt (Fig 10.32).

.
x
Para h=2

tiempo exponencial
tiempo finito
. xd

s=0

Fig. 10.32: Interpretación gráfica de la condición de deslizamiento


10.7. Control deslizante 445

Conclusión:
Elegir la función s(x, t) según 10.7.2.

Elegir la entrada u de forma que se cumpla 10.7.1.

Problemas
Las imprecisiones en el momento de conmutación y el paso de una trayecto-
ria a la trayectoria de la superficie S.

.
x

. xd

s=0

Fig. 10.33: Castañeteo (chattering) como resultado de una conmutación imperfecta

Esto implica conmutaciones constantes de alta frecuencia. La solución para


ello es que la señal u sea suave.

Ejemplo 10.7.2: Consideremos el sistema de segundo orden

ẍ = f + u (10.7.15)

donde
-u es la entrada
-y es la salida
-f es una función no lineal o variante en el tiempo (no exactamente conocida).
Suponemos que vale fˆ de tal forma que el error está acotado: | fˆ − f | ≤ F.

Por ejemplo consideremos

ẍ + a(t)ẋ 2 cos 3x = u (10.7.16)

con la acotación de la variable desconocida,

1 ≤ a(t) ≤ 2 (10.7.17)
446 10. Control de sistemas no lineales

la estimación de f ,
fˆ = −1.5ẋ 2 cos 3x (10.7.18)
y la acotación
| fˆ − f | ≤ F = 0.5ẋ 2 | cos 3x| (10.7.19)
Se desea resolver el problema de seguimiento x(t) = xd (t).

Solución:
Definimos la superficie deslizante s = 0, según 10.7.2:
 
d
s= + λ x̃ = x̃˙ + λ x̃ (10.7.20)
dt
ṡ = ẍ − x¨d + x x̃˙ = f + u − x¨d + λ x̃˙ (10.7.21)
La mejor elección de û que hace ṡ = 0 es:
û = − fˆ + x¨d − λ x̃˙ (10.7.22)
Para satisfacer la condición de deslizamiento 10.7.1 añadimos a ũ el término de
discontinuidad a lo largo de la superficie s = 0:
u = ũ − k sign(s) (10.7.23)
es decir,
sign(s) = +1, si s > 0
(10.7.24)
sign(s) = −1, si s < 0
1 d 2
s = ṡs = [ f − f˜ − k sign(s)]s = ( f − f˜)s − k|s| (10.7.25)
2 dt
k = F +η (10.7.26)
1 d 2
s ≤ −η|s| (10.7.27)
2 dt
El control ũ indica que si el error es negativo, actúa en el sentido positivo y vice-
versa. La señal de error es
s = x̃˙ + x̃ (10.7.28)
y la señal de control
u = ũ − k sign(s). (10.7.29)
Como se observa en las gráficas 10.35 y 10.36, que representan la implemen-
tación del control deslizante del ejemplo 10.7.2 simulado mediante los esquemas
10.37, 10.38 y 10.39, el aumento del ancho de la capa límite η hace que el cas-
tañeteo (chattering) aumente y el error de seguimiento sea mayor. No obstante, la
disminución del parámetro η obliga a que la respuesta frecuencial del controlador
deba ser más rápida. Por otro lado, el aumento de η lleva a que se puedan con-
trolar sistemas con conocimiento menos preciso de la parte no-lineal o, lo que es
equivalente, de la superficie de deslizamiento s = 0.
10.7. Control deslizante 447

0.5
x,xd, para eta=0.1

−0.5

−1

−1.5
0 1 2 3 4 5 6 7 8 9 10
tiempo

40

30

20
u

10

−10
0 1 2 3 4 5 6 7 8 9 10
tiempo

Fig. 10.34: Resultados de la simulación para el ejemplo 10.7.2 para η = 0.1

0.5
x,xd, para eta=1

−0.5

−1

−1.5
0 1 2 3 4 5 6 7 8 9 10
tiempo

40

30

20
u

10

−10
0 1 2 3 4 5 6 7 8 9 10
tiempo

Fig. 10.35: Resultados de la simulación para el ejemplo 10.7.2 para η = 1


448 10. Control de sistemas no lineales

0.06

0.04

0.02

−0.02

−0.04

−0.06

2 3 4 5 6 7 8

Fig. 10.36: Resultados del chattering de la simulación para el ejemplo 10.7.2

sin(pi*u/2)
Clock xd
Fcn cos(3x)
cos(3x) Scope1
u In1 x_dot
xdot
x x
Controller Model

Scope

Fig. 10.37: Diagrama de Simulink de bucle cerrado del ejemplo 10.7.2

2
x_dot

3
x
x_dot_dot
x_dot x
1 1
1 s s 3 cos 1
In1 cos(3x)
Integrator Integrator1 Gain Trigonometric
Function

Random Saturation
Number Product

Fig. 10.38: Diagrama de Simulink del bloque del modelo del ejemplo 10.7.2
10.7. Control deslizante 449

xd_dot
pi*0.5*cos(pi*u/2) -20(xdot-xd_dot)
-20
Clock Fcn Gain 1
xd_dot_dot
u

-pi^2*0.25*sin(pi*u/2)

Fcn1

10

Gain2 Saturation -1

4 Gain3
x 20
1 Product2
xd Gain1

0.5

Gain5
0.5x_dot^2|cos3x|+0.1
3 1.5 0.1
xdot Constant1
Gain4 Product
1.5xdot*xdot*cos(3x)
2
cos(3x)
Product1

|u|

Abs

Fig. 10.39: Diagrama de Simulink del bloque del controlador del ejemplo 10.7.2
450 10. Control de sistemas no lineales

Bibliografía

[1] S. Sastry, Nonlinear Systems Springer, 1999.

[2] E. Umez-Eronini, Dinámica de Sistemas y Control Thomson Learning, 2001.

[3] S. Barnett y R.G. Cameron, Introduction to Mathematical Control Theory


Oxford University Press, 1992.

[4] T. Glad y L. Ljung, Control Theory, Taylor and Francis, 2000.

[5] J.J.E. Slotine y W.Li, Applied Nonlinear Control, Prentice Hall, 1991.

[6] H. K. Khalil, Nonlinear Systems, Prentice Hall, 2002.


ALGUNOS DATOS HISTÓRICOS
452 10. Control de sistemas no lineales

Jacopo Francesco Riccati Taylor, Brooks Leonhard Euler


(1676 Venice (Italia) – (1685 Edmonton (Reino (1707 Basilea (Suiza) –
1754 Treviso (Italia)) Unido) – 1783 San Petersburgo (Ru-
1731 Londres (Reino Uni- sia))
do))

Watt, James Laplace, Pierre Simon Fourier, Jean Baptiste Jo-


(1736 Greenock, (Scot- (1749 Normandia (Francia) seph
land) – – (1768 Borgoña (Francia) –
1736) 1827 Paris (Francia)) 1830 Paris (Francia))
10.7. Control deslizante 453

Cauchy, Agustin Louis Sir William Rowan Hamil- Routh, Edward John
(1789 Paris (Francia) – ton (1831 Quebec (Canada) –
1857 Paris (Francia)) (1805 Dublin (Irlanda) - 1907 Cambridge (Reino
1865 Dublin (Irlanda)) unido))

Jordan, Marie Ennemond Liapunov, Aleksandrer Mi- Hurwitz, Adolf


Camille jailovich (1859 Hanover (Germany)-
(1838 Lyon (Francia) – (1857 Yaroslavl (Rusia) – 1919 Zurich (Switzerland))
1922 Paris (Francia)) 1918 Odessa (Rusia))
454 10. Control de sistemas no lineales

Evans, Griffith Conrad Nyquist, Harry Norbert Wiener


(1887 Boston (USA) – (1889, Nilsby (Suecia) – (1894, Columbia (USA) –
1973 Berkeley (USA)) 1976 (USA)) 1964 Estocolmo (Suecia))

Bode, Henrick W. Pontriagin, Lev Semiono- Shannon, Claude E.


(1905 Madison (USA) – vich (1916 Michigan(USA) –
1982 Maryland (USA)) (1908 Moscú (Rusia) – 2001 Massachusetts
1988 Moscú (Rusia)) (USA))
10.7. Control deslizante 455

Yakov Zalmanovitch Tsyp- Richard Bellman Kalman, Rudolf E.


kin (1920 Brooklyn USA) – (1930 Budapest (Hungria)
( 1919 (Rusia) – actualidad) – actualidad)
1997 (Rusia))

Truxal, John G. Eliahu I. Jury Karl J. Åström


(1934 Östersund (Sweden)
- actualidad)
ÍNDICE ALFABÉTICO

índice de desempeño, 379 controlabilidad de estado, 331


controlabilidad de la salida, 335
error final de predicción (FPE), 273 controlador de tiempo mínimo, 318
función de densidad de probabilidad, controlador deadbeat, 318
24 controladores con tiempo de estable-
modo controlable, 331 cimiento mínimo, 318
operador adelanto, 20 covarianza, 28
criterio de información teórica (AIC),
Aizerman, 226
273
asignación de polos, 284
criterio de Nyquist, 154, 198
autocovarianza, 28
criterio del círculo, 230
bloqueadores de señal, 50
densidad espectral, 34
centro, 172 derivadas de Lie, 425
ciclo límite, 152 diagrama de Bode, 69
condiciones de contorno, 383 discretización de las ecuaciones de es-
conjetura de Aizerman, 226 tado, 116
control óptimo discreto, 382 discretización de un controlador ana-
control óptimo discreto en estado es- lógico, 64
tacionario, 390 discretización de un controlador PID,
control óptimo en tiempo continuo, 296
391 diseño de controladores PID discre-
control continuo con estado final li- tos, 305
bre, 396 diseño de observadores de estado, 360
control continuo en estado estaciona- diseño de reguladores por síntesis di-
rio, 399 recta, 311
control deslizante, 437
control discreto con estado final libre, ecuación de coestado, 383
387 ecuación de estacionariedad, 383
control PID, 279 ecuación de estado, 383
control por posicionamiento de polos, error cuadrático generalizado, 381
346 espectro cruzado, 35
control por realimentación de estado, espectro de una señal muestrada, 72
344 esperanza matemática, 27
controlabilidad, 331 estabilidad, 212

456
Índice alfabético 457

estabilidad asintótica, 213 IAE, 381


estabilidad asintótica global, 213 identificación de sistemas, 237
estado, 80 Integral del error cuadrático, 380
estimación de la Respuesta Frecuen- Integral del tiempo por el error cua-
cial, 252 drático, 380
estimación de la respuesta frecuencial, Integral del valor absoluto del error,
245 381
estimación de la respuesta impulsio- ISE, 380
nal, 245 isoclinas, 175
estimación mediante análisis espec- ITSE, 380
tral, 255
estimación por mínimos cuadrados, 260 Kalman, 376, 388
estimación por correlación, 249 Liapunov, 211
estimador recursivo de mínimos cua- linealización de entrada/salida, 417,
drados, 266 426
linealización de sistemas, 87
filtro de Kalman, 376 linealización en la entrada/estado, 426
foco inestable, 171 linealización por realimentación, 414
forma canónica controlable, 91 LQR, 386, 396
forma canónica de Jordan, 96
forma canónica diagonal, 98 método basado en determinación al-
forma canónica observable , 93 gebraica para el ajuste de PID,
frecuencia natural no amortiguada, 278 289
función de autocorrelación, 29 método basado en el lugar de las raí-
función de correlación cruzada, 31 ces para el ajuste de PID, 291
función de coste, 379 método basado en los polos dominan-
función de densidad espectral, 33 tes para el ajuste de PID, 287
función de distribución, 24 método de asignación de polos para
función de Liapunov, 215 ajuste de PID, 284
función de transferencia, 44 método de Euler, 65
función de transferencia discreta equi- método de Jury, 196
valente, 57 método de la respuesta a un escalón
función de transferencia muestreada, para ajuste de PID, 281
52 método de la respuesta frecuencial pa-
función definida negativa, 213 ra ajuste de PID, 282
función definida positiva, 213 método de Liapunov, 211
función descriptiva, 140 método de mínimos cuadrados exten-
dido, 269
ganancia de Kalman, 377, 388 método de Popov, 225
grado relativo, 424 método de Routh, 192
método trapezoidal, 67
hamiltoniano, 382 métodos de Ziegler y Nichols, 280
458 Índice alfabético

margen de fase, 209 principio del mínimo de Pontriaguin,


margen de ganancia, 206 404
modelo ARMAX, 241 proceso aleatorio, 21
modelo ARX, 241 procesos ergódicos, 24
modelo Box-Jenkins, 243 procesos estacionarios, 23
modelo en el Espacio de Estados, 244 procesos estocásticos, 20
modelo OE, 242 punto de silla de montar, 168
modelos de entrada/salida, 42 puntos singulares, 167
modelos de función de transferencia,
239 regresión lineal, 259
regulador lineal cuadrático continuo,
modelos no-paramétricos, 238, 239
396
modelos paramétricos, 238, 239
Regulador lineal cuadrático (LQR) dis-
modelos temporales, 42
creto, 386
modo observable, 331
respuesta frecuencial de los sistemas
momento, 27
muestreados, 71
momentos centrados, 28
respuesta impulsional, 43
muestreo de una señal, 48
Riccati, 387
multiplicador de Lagrange, 382
ruido blanco, 35
nodo estable, 169 sistemas con retardo puro, 409
nodo inestable, 171 Smith, 410
Nyquist, 198 sobreoscilación, 278
solución de la Ecuación de Estado,
observabilidad, 338 112
observador óptimo del estado, 372 solución de la ecuación de estado en
observador de orden completo, 361 tiempo discreto, 120
observador de orden reducido, 369 superficie de deslizamiento, 441
observadores de estado, 360 sweep method, 387
operador retardo, 20
tasa de amortiguamiento, 278
periodo de la oscilación amortiguada, tasa de decaimiento, 278
278 teorema de la factorización espectral,
perturbaciones en el sistema, 123 37
plano de fase, 164 teorema de la ganancia pequeña, 191
Pontriaguin, 404 teorema de Liapunov, 216
Popov, 225 teorema de muestreo, 74
predictor de Smith, 410 teorema de Popov, 227
principio de dualidad, 342 teorema del valor final, 6, 14
principio de Hamilton de la dinámica teorema del valor inicial, 6, 14
clásica, 394 tiempo de establecimiento, 279
principio del argumento de Cauchy, tiempo de pico, 278
199 transformada de Fourier, 2
Índice alfabético 459

transformada de Laplace, 3
transformada inversa de Fourier, 3
transformada inversa de Laplace, 7
transformada z, 13

validación cruzada, 273


validación del modelo, 272
variable aleatoria, 21
variables de estado, 84
varianza, 28

Ziegler-Nichols, 280
460 Índice alfabético
View publication stats

CONTRAPORTADA

INGENIERIA DE CONTROL Modelado y control de sistemas dinámicos


L. Moreno, S. Garrido y C. Balaguer
La Ingeniería de Control tradicionalmente ha estado vinculada al sector indus-
trial para control de sistemas físicos. Pero últimamente, ésta se ha extendido a otros
campos productivos y de servicios tales como sistemas químicos, fisiológicos, eco-
nómicos, etc., en donde el modelado y posterior control son claves. De este modo,
la Ingeniería de Control se presenta como una disciplina horizontal con múltiples
aplicaciones sectoriales.
El objetivo de este libro es presentar las metodologías y técnicas de control de
los sistemas dinámicos. El estudio abarca tanto sistemas lineales, continuos y dis-
cretos, como sistemas no-lineales. En la parte de sistemas lineales a la vez que se
presentan técnicas clásicas de modelado, basadas en la relación externa (entrada-
salida), también se incluyen técnica de representación interna mediante variables
de estado. La parte de sistemas no-lineales se basa en las técnicas de función des-
criptiva y plano de fase, así como en el estudio de los ciclos límites y las técnicas
básicas de control.
Se trata de un texto de carácter introductorio que pretende, evitando las demos-
traciones innecesarias, no solamente presentar y desarrollar el aparato matemático
estrictamente necesario, sino también analizar el carácter físico de los resultados
y comportamientos. El libro presenta en la mayoría de los capítulos una amplia
gama de problemas resueltos que ayudan al lector a la mejor asimilación de los
contenidos teóricos. Asimismo, el texto incluye numerosas referencia que pueden
apoyar la profundización de los contenidos de algunos capítulos.
El libro está orientado fundamentalmente a los alumnos que cursen materias
relacionadas con la Ingeniería de Control y es fruto de numerosos años de docencia
de los autores. Igualmente el libro pretende ser un texto de consulta básica para los
profesionales de los sectores afines.

También podría gustarte