Está en la página 1de 158

Control de Pro

esos Industriales

Dr. David Zumoffen


Investigador Independiente de CONICET
Profesor Adjunto de UTN-FRRo
zumoffen@cifasis-conicet.gov.ar
Resumen

En este documento se describen diversas ideas, herramientas y metodologı́as vincula-


das a la gran área de control de procesos industriales. La información se presenta de forma
progresiva, abordando inicialmente conceptos básicos, definiciones y la idea conceptual del
problema de diseño de estructuras de control en procesos. Debido a que todo problema
de control requiere de algún tipo de modelo de la planta, ya sea para analizar potencia-
les estructuras o para definir un ajuste de los controladores, se destina un capı́tulo a las
tareas de “modelado de procesos”. En el capı́tulo “control clásico por retroalimentación”
se presentan las ideas de control a lazo cerrado basado en controladores PID e IMC, para
sistemas SISO. Se sugieren diferentes alternativas de ajuste para dichos controladores y se
analizan algunas caracterı́sticas de rendimiento. El diseño de estructuras de control para
procesos MIMO se aborda en el capı́tulo “control multivariable”, donde se presentan he-
rramientas para analizar la direccionalidad de los sistemas, los potenciales apareamientos
entrada-salida y las carcaterı́sticas de rendimiento. También se presenta la generalización
de la teorı́a de control por modelo interno (IMC) para sistemas MIMO. Una subárea de
trabajo muy importante dentro de control de procesos, y de mucha popularidad las últimas
décadas, es el “control de plantas completas”. El presente documento dedica un capı́tu-
lo a este tópico para presentar las ideas generales y el alcance detrás de esta actividad,
ası́ como presentar algunos conceptos especı́ficos relacionados con el abordaje de “desvia-
ciones cuadráticas mı́nimas” desarrollados oportunamente por el autor. El documento se
completa con algunas estrategias alternativas de control que pretenden mejorar algunas
caracterı́sticas deficientes de los controladores PID y finaliza con un apéndice que resume
diversas herramientas vinculadas a teorı́a de sistemas lineales, matrices y normas, que son
de suma utilidad a lo largo de esta presentación.

i
Índice general

Resumen I

1. Introducción 1
1.1. Diseño de un sistema de control . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Definiciones generales: sistemas y variables . . . . . . . . . . . . . . . . . . . 2
1.3. Normalización de las variables . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Sistemas de control a lazo abierto y a lazo cerrado . . . . . . . . . . . . . . 5

2. Modelado de procesos 7
2.1. Modelos de primeros principios . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Comportamiento dinámico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1. Estabilidad de modelos lineales en espacio de estados . . . . . . . . . 11
2.2.2. Funciones de transferencia . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.3. Sistema de primer orden . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.4. Sistema integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.5. Sistema de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.6. Sistema con tiempo muerto . . . . . . . . . . . . . . . . . . . . . . . 17
2.3. Modelos empı́ricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1. Modelo de primer orden con retardo . . . . . . . . . . . . . . . . . . 19
2.4. Identificación de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1. Modelo autorregresivo con entrada externa (ARX) . . . . . . . . . . 21
2.4.2. Método de mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . . 22
2.4.3. Estructura general de los modelos . . . . . . . . . . . . . . . . . . . 23

3. Control clásico por retroalimentación 27


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1. Funciones de transferencia a lazo cerrado . . . . . . . . . . . . . . . 28
3.1.2. ¿Porqué la retroalimentación? . . . . . . . . . . . . . . . . . . . . . . 29
3.1.3. Estabilidad a lazo cerrado . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2. Controlador PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.1. Diferentes estructuras del controlador PID . . . . . . . . . . . . . . . 32
3.2.2. Banda proporcional . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.3. Saturaciones producidas por el integrador (reset windup) . . . . . . 34
3.3. Ajuste del controlador PID . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1. Ajuste basado en oscilación a lazo cerrado . . . . . . . . . . . . . . . 35
3.3.2. Reglas de ajuste para primer orden con tiempo muerto . . . . . . . . 35
3.3.3. Sı́ntesis directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4. Control por modelo interno (IMC) . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.1. Procedimiento de diseño IMC . . . . . . . . . . . . . . . . . . . . . . 38

iii
3.4.2. Mejoras en el rechazo de perturbaciones . . . . . . . . . . . . . . . . 39
3.5. Ajuste del controlador PID mediante IMC . . . . . . . . . . . . . . . . . . . 41
3.5.1. Procedimiento de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5.2. Ajuste para procesos sin tiempos muertos . . . . . . . . . . . . . . . 43
3.5.3. Ajuste para procesos con tiempos muertos . . . . . . . . . . . . . . . 44
3.6. Evaluando el rendimiento a lazo cerrado . . . . . . . . . . . . . . . . . . . . 45
3.6.1. Rendimiento en el dominio temporal . . . . . . . . . . . . . . . . . . 46
3.6.2. Rendimiento en el dominio frecuencial . . . . . . . . . . . . . . . . . 47
3.7. Limitaciones en el rendimiento . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.1. Controlabilidad entrada-salida . . . . . . . . . . . . . . . . . . . . . 50
3.7.2. Análisis de controlabilidad entrada-salida . . . . . . . . . . . . . . . 51
3.7.3. Escalado y rendimiento . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7.4. Observaciones sobre el término controlabilidad . . . . . . . . . . . . 52
3.7.5. Control perfecto e inversión de la planta . . . . . . . . . . . . . . . . 53
3.7.6. Integrales de sensibilidad . . . . . . . . . . . . . . . . . . . . . . . . 54
3.7.7. Restricciones de entrada . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.7.8. Limitaciones por incertidumbre . . . . . . . . . . . . . . . . . . . . . 56

4. Control multivariable 59
4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.1. Funciones de transferencia para sistemas MIMO . . . . . . . . . . . 60
4.2. Respuesta en frecuencia para sistemas MIMO . . . . . . . . . . . . . . . . . 61
4.2.1. Direcciones en sistemas multivariables . . . . . . . . . . . . . . . . . 61
4.2.2. Autovalores y ganancia . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.3. Descomposición en valores singulares . . . . . . . . . . . . . . . . . . 63
4.2.4. Valores singulares y rendimiento . . . . . . . . . . . . . . . . . . . . 64
4.3. Control de plantas multivariables . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.1. Desacoplamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.2. Pre-Post compensadores y controladores SVD . . . . . . . . . . . . . 65
4.3.3. Control descentralizado (diagonal) . . . . . . . . . . . . . . . . . . . 66
4.4. Número de condición y RGA . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.1. Número de condición . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.2. Matriz de ganancias relativas (RGA) . . . . . . . . . . . . . . . . . . 66
4.4.3. Integridad y apareamiento . . . . . . . . . . . . . . . . . . . . . . . . 70
4.4.4. Reglas de apareamiento mediante RGA . . . . . . . . . . . . . . . . 71
4.5. Control por modelo interno (IMC) . . . . . . . . . . . . . . . . . . . . . . . 73
4.5.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.2. Procedimiento de diseño . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5.3. Factorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.5.4. Diseño del filtro de robustez . . . . . . . . . . . . . . . . . . . . . . . 77
4.6. Limitaciones en el rendimiento . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.6.1. Restricciones sobre las matrices de sensibilidad . . . . . . . . . . . . 81
4.6.2. Controlabilidad funcional . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6.3. Limitaciones impuestas por retardos . . . . . . . . . . . . . . . . . . 83
4.6.4. Limitaciones impuestas por ceros . . . . . . . . . . . . . . . . . . . . 83
4.6.5. Limitaciones impuestas por perturbaciones . . . . . . . . . . . . . . 84
4.6.6. Limitaciones impuestas por restricciones de entrada . . . . . . . . . 84
4.6.7. Limitaciones impuestas por incertidumbres . . . . . . . . . . . . . . 87
4.7. Resumen: controlabilidad entrada-salida . . . . . . . . . . . . . . . . . . . . 89

iv
4.8. Estabilidad de los sistemas retroalimentados . . . . . . . . . . . . . . . . . . 89
4.8.1. Estabilidad interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.8.2. Controladores estabilizantes . . . . . . . . . . . . . . . . . . . . . . . 90
4.8.3. Análisis frecuencial de estabilidad . . . . . . . . . . . . . . . . . . . 90

5. Control de plantas completas 93


5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2. Diseño de estructuras de PWC . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.2.1. Capas de control y escalas temporales . . . . . . . . . . . . . . . . . 95
5.2.2. Procedimiento para diseño PWC . . . . . . . . . . . . . . . . . . . . 96
5.3. Escenarios de control de plantas completas . . . . . . . . . . . . . . . . . . 97
5.4. RGA para procesos no cuadrados . . . . . . . . . . . . . . . . . . . . . . . . 98
5.5. Desviaciones cuadráticas mı́nimas (DCM) . . . . . . . . . . . . . . . . . . . 102
5.5.1. Selección de VCs y VMs . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.5.2. Estructura del controlador . . . . . . . . . . . . . . . . . . . . . . . . 104
5.6. Estrategia DCM con ı́ndices combinados . . . . . . . . . . . . . . . . . . . . 107
5.6.1. Formulación MINLP de doble nivel . . . . . . . . . . . . . . . . . . . 108
5.6.2. Formulación MINLP de un solo nivel . . . . . . . . . . . . . . . . . . 109
5.6.3. Formulación MIQP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6. Estrategias alternativas de control 121


6.1. Mejoras sobre PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.1.1. Antireset windup (ARW) . . . . . . . . . . . . . . . . . . . . . . . . 121
6.1.2. Autoajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.1.3. PID con ajustes variantes en el tiempo . . . . . . . . . . . . . . . . . 124
6.2. Control en cascada y en avance . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2.1. Control en cascada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2.2. Control en avance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.3. Control de relación, selectivo y de rango dividido . . . . . . . . . . . . . . . 129
6.3.1. Control de relación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.3.2. Control selectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
6.3.3. Control por rango dividido . . . . . . . . . . . . . . . . . . . . . . . 132

Apéndices 137

A. Teorı́a de sistemas lineales, matrices y normas 137


A.1. Modelo en espacio de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 137
A.2. Controlabilidad y observabilidad de estado . . . . . . . . . . . . . . . . . . . 138
A.3. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.4. Polos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.5. Ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
A.6. Direcciones de polos y ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.6.1. Direcciones de ceros . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.6.2. Direcciones de polos . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
A.7. Comentarios adicionales sobre polos y ceros . . . . . . . . . . . . . . . . . . 140
A.8. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.8.1. Norma para vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
A.8.2. Norma para matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
A.8.3. Norma inducida para matrices . . . . . . . . . . . . . . . . . . . . . 142

v
Bibliografı́a 143

vi
Índice de figuras

1.1. Variables de un proceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3


1.2. Sitemas de control . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.1. Reactor de tanque continuamente agitado (CSTR) . . . . . . . . . . . . . . 8


2.2. Respuesta dinámica del reactor para ∆f = +5 % . . . . . . . . . . . . . . . 9
2.3. Respuesta dinámica para ∆u = 10 kW . . . . . . . . . . . . . . . . . . . . . 13
2.4. Sistema de segundo orden puro - Diferentes ζ . . . . . . . . . . . . . . . . . 15
2.5. Sistema de segundo orden puro . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Sistema de segundo orden - Diferentes τn . . . . . . . . . . . . . . . . . . . 17
2.7. Respuesta sistema con retardo y aproximaciones Padé . . . . . . . . . . . . 18
2.8. Método del 63.2 % del valor final . . . . . . . . . . . . . . . . . . . . . . . . 19
2.9. Método de la máxima pendiente . . . . . . . . . . . . . . . . . . . . . . . . 20
2.10. Salida medida a intervalos Ts de tiempo - Muestreo . . . . . . . . . . . . . . 21
2.11. Datos recopilados del proceso de calentamiento de aire . . . . . . . . . . . . 23
2.12. Comprobación del modelo ARX con datos de validación . . . . . . . . . . . 24

3.1. Sistema de control por retroalimentación unitaria de salida . . . . . . . . . 28


3.2. Control proporcional de un sistema no mı́nima fase . . . . . . . . . . . . . . 31
3.3. Control con diferentes estructuras PID . . . . . . . . . . . . . . . . . . . . . 34
3.4. Estructura de control por modelo interno (IMC) . . . . . . . . . . . . . . . 38
3.5. Control IMC - Diferentes λ . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6. Control IMC - Filtro mejorado . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.7. Ajuste PID basado en IMC - Diferentes aproximaciones Padé . . . . . . . . 46
3.8. Diagra de Bode de magnitud y fase . . . . . . . . . . . . . . . . . . . . . . . 48
3.9. Aumentando la ganancia del controlador - Sistema con respuesta inversa . . 55

4.1. Sistema de control MIMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60


4.2. Control multivariable de la columna de destilación . . . . . . . . . . . . . . 69
4.3. Control descentralizado - Diferentes apareamientos . . . . . . . . . . . . . . 72
4.4. Máximo valor singular de la función de sensibilidad - σ(S(jw)) . . . . . . . 73
4.5. Estructura IMC MIMO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Control IMC MIMO - Diferentes factorizaciones . . . . . . . . . . . . . . . . 80
4.7. Sistema de control por retroalimentación unitaria de salida . . . . . . . . . 90

5.1. Jerarquı́a de control tı́pica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95


5.2. Escenarios de diseño de PWC - Posibles particiones de Gp (s) . . . . . . . . 98
5.3. Estructura IMC para PWC . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4. Selección de VCs - Proceso Shell . . . . . . . . . . . . . . . . . . . . . . . . 105
5.5. Selección de la interacción del controlador - Proceso Shell . . . . . . . . . . 108
5.6. Proceso Tennessee Eastman . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

vii
Índice de figuras

6.1. Sistema de control con restricción en la VM . . . . . . . . . . . . . . . . . . 122


6.2. Sistema de control PID con ARW (Retro-calculo) . . . . . . . . . . . . . . . 122
6.3. Control PI con y sin ARW . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.4. Control en cascada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.5. Control en cascada y control simple . . . . . . . . . . . . . . . . . . . . . . 127
6.6. Control en avance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.7. Control de relación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.8. Estrategia de control override (control por cancelación) . . . . . . . . . . . 131
6.9. Estrategia de control por rango dividido . . . . . . . . . . . . . . . . . . . . 132

viii
Índice de tablas

2.1. Modelos comunes en identificación de sistemas SISO . . . . . . . . . . . . . 25

3.1. Parámetros de ajuste - Método de Ziegler-Nichols a lazo cerrado . . . . . . 36


3.2. Parámetros de ajuste - Métodos a lazo abierto . . . . . . . . . . . . . . . . 36

5.1. Selección de VCs - Proceso Shell . . . . . . . . . . . . . . . . . . . . . . . . 105


5.2. Selección de la interacción del controlador - Proceso Shell . . . . . . . . . . 107
5.3. Variables del proceso TE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.4. Formulaciones BMINLP (AG) y MIQP (CPLEX) - Proceso TE . . . . . . . 118
5.5. Selección de VCs y VMs - Proceso TE . . . . . . . . . . . . . . . . . . . . . 119
5.6. Apareamiento (znd ) y error planta-modelo (zn ) . . . . . . . . . . . . . . . . 119

ix
Capı́tulo 1
Introducción

En este capı́tulo daremos una breve discusión respecto de las decisiones necesarias
en el diseño de un sistema de control. Mostraremos algunas definiciones generales sobre
los sistemas, las variables involucradas en el análisis y una rápida idea conceptual de
retroalimentación. Hablaremos también de la normalización/escalado de señales y de las
diferencias entre sistemas de control a lazo abierto y a lazo cerrado.

1.1. Diseño de un sistema de control


El proceso de diseño de un sistema de control requiere diversas decisiones que se pueden
resumir en los siguientes pasos (Skogestad and Postlethwaite, 2005):

1. Estudiar el proceso que se quiere controlar y obtener información inicial respecto de


los objetivos de control.

2. Modelar el sistema y simplificar el modelo si es necesario.

3. Analizar el modelo resultante. Deterinar sus propiedades.

4. Determinar que variables serán controladas (salidas controladas).

5. Decidir respecto de las variables medidas y manipuladas. Definir los sensores y ac-
tuadores que serán utilizados y la locación de los mismos.

6. Seleccionar la configuración de control.

7. Decidir que tipo de controlador se utilizará.

8. Decidir sobre las especificaciones de rendimiento, basado en los objetivos de control


generales.

9. Diseñar un controlador.

10. Analizar el sistema de control resultante. Si las especificaciones no se cumplen, cam-


biar dichas especificaciones o el tipo de controlador.

11. Simular el sistema controlado ya sea en una computadora o en una planta piloto.

12. Repetir el paso 2, si es necesario.

13. Elegir el hardware y software para implementar el controlador.

1
1.2. Definiciones generales: sistemas y variables

14. Chequear y validar el sistema de control y ajustar sus parámetros en lı́nea si es


necesario.

Los cursos de control y los libros de texto generalmente se centran en los pasos 9 y
10 del procedimiento anterior. Es decir, sobre métodos para el diseño del controlador y el
análisis del sistema de control. Sin embargo, para sistemas complejos con muchas entradas
y salidas, es común que no se conozca de antemano una estructura de control adecuada. Por
lo tanto, existe la necesidad de herramientas e ideas sistemáticas para ayudar al diseñador
con los pasos 4, 5, 6 y 7.
En este documento se presenta una recopilación de herramientas, ideas y metodologı́as
que permiten abordar la mayorı́a de los pasos presentados en el procedimiento anterior.
La controlabilidad entrada-salida se ve afectada por la ubicación de los sensores y
actuadores. Una vez elegidas estas locaciones el ingeniero de control no puede modificar
las caracterı́sticas de controlabilidad propias del sistema. En pocas palabras, “incluso el
mejor sistema de control no puede convertir un Volkswagen en un Ferrari”. Por lo tanto, el
proceso de diseño del sistema de control deberı́a incluir en algunos casos un paso 0 (cero),
donde se involucre el diseño del propio equipo del proceso. La idea de pensar el diseño del
proceso integrado con el diseño del sistema de control no es nueva y numerosos autores
han realizados sus aportes a esta gran área.

1.2. Definiciones generales: sistemas y variables


En la Fig. 1.1(a) se puede observar una representación conceptual de las variables
involucradas en un proceso. En este caso se trata de un proceso a lazo abierto (sin control)
con la siguiente descripción (Bequette, 2002):

Entradas manipuladas: como mencionamos en la sección anterior, el diseñador de-


finirá la locación de los actuadores y éstos serán las variables manipuladas con las
que contará el proceso para definir su operación ya sea vı́a control automático o a
lazo abierto.

Perturbaciones: esta variables de entrada no son manipulables por el operador o la


estrategia de control. Son variables que ingresan al proceso (quizás proveniente de
otro proceso o del medio ambiente) produciendo modificaciones sobre su punto de
de trabajo. Se pueden dividir en perturbaciones medidas y no medidas, dependiendo
de la naturaleza de las mismas. Las perturbaciones medidas pueden utilizarse en
algunas estructuras de control para mejorar el rendimiento de los sistemas.

Salidas medidas: son las salidas a las cuales el diseñador decidió medir (vı́a locación
de una sensor) por su importancia económica, su impacto en la calidad del producto,
o por cuestiones de seguridad. En general este tipo de variables suelen ser controladas
por una estrategia de control, para garantizar rechazo a perturbaciones o permitir
el cambio de operación de forma automática.

Salidas no medidas: son salidas que potencialmente podrı́an medirse, pero el di-
señador decidió no considerarlas en una futura estructura de control.

En la Fig. 1.1(b) se muestra la estructura de un lazo de control por retroalimentación


tı́pico (SISO). En este caso, una de las salidas medidas denominada y, se pretende controlar
de forma automática para que siga la trayectoria de operación deseada dada por el set
point ysp . Para este fin, se manipula una de las variables de entrada disponible, en este

2
1.2. Definiciones generales: sistemas y variables

Entradas Manipuladas Salidas Medidas


Proceso
Perturbaciones Salidas No Medidas

(a) Proceso a lazo abierto


ysp
Controlador
u

Proceso

(b) Proceso controlado

Figura 1.1: Variables de un proceso

caso denominada u. A su vez, la estructura de control propuesta utiliza la información de


la perturbación medida, d, para mejorar el rendimiento. El diseño del controlador podrı́a
considerar dos componentes: 1- un control de tipo retroalimentación (feedback) unitaria
de salida con PID y 2- una acción de control en avance (feedforward) para compensación
rápida de perturbaciones.
Expandiendo y profundizando un poco más algunos conceptos del procedimiento de la
sección anterior, podemos discutir sobre las siguientes definiciones:

Objetivos de control: como mencionamos con anterioridad, uno de los primeros pasos
en el diseño de una estrategia de control es la formulación de los objetivos de control.
Un proceso industrial generalmente posee varias unidades o subsistemas cumpliendo
una determinada tarea dentro del objetivo global del proceso. Es más, cada unidad
de operación puede tener múltiples objetivos y en ocasiones conflictivos, con lo cual
definir los objetivos de control del proceso (y de sus unidades) puede ser una tarea
no trivial.

Restricciones: todo proceso industrial tiene ciertas restricciones operativas, que se


clasifican como duras (hard) o suaves (soft). Las restricciones del tipo fuerte gene-
ralmente están asociadas con los lı́mites operativos de los equipos (temperaturas,
presiones, caudales). Un ejemplo de restricción suave es la composición de un pro-
ducto, si bien se especifica un rango deseable (para fines de ventas), es posible violar
esta especificación sin representar un riesgo para la seguridad o el medio ambiente.

Tipo de operación: los procesos se clasifican como continuos, por lotes (batch) o
semicontinuos según el tipo de operación que presenten. Las plantas que operan de
forma continua pueden permanecer meses en funcionamiento hasta que se defina
alguna parada de planta preventiva. Los procesos batch, por el contrario, operan

3
1.3. Normalización de las variables

durante un corto perı́odo de tiempo y su naturaleza es muy cambiante a lo largo de


la operación. El funcionamiento semicontinuo de los procesos está caracterizado por
una combinación de las dos primeras clasificaciones. Por lo tanto, la selección de una
estrategia de control para un caso o para otro puede ser notablemente diferente.

Consideraciones de seguridad, medio ambientales y económicas: los beneficios económi-


cos son la fuerza impulsora definitiva en la operación de todo proceso. De todas for-
mas es importante notar que un proceso inseguro o peligroso para el medio ambiente
en última instancia tendrá costos operativos más elevados, debido a multas, costos
de seguro, etc. En muchas industrias, es importante minimizar los costos de energı́a
y producir productos que cumplan con ciertas especificaciones. Una mejor automa-
tización y control del proceso permite que las plantas industriales operen más cerca
de las condiciones “óptimas” y generen productos que satisfacen las especificaciones
de variabilidad.

Estructura del controlador: retomemos la estructura de control genérica de la Fig. 1.1(b)


y supongamos que ahora estamos frente a un caso de múltiples entradas y múltiples
1 , . . . , y nq ]
salidas (MIMO). Entonces, y = [y1 , . . . , ynq ], u = [u1 , . . . , unq ], ysp = [ysp sp
y d = [d1 , . . . , dnd ] ahora son vectores, donde nq es el número de VCs (en este caso
igual al número de VMs) y nd la cantidad de perturbaciones medidas. En este con-
texto, cuando hablamos de “estructura del controlador MIMO” hablamos de alguna
de las siguientes polı́ticas de implementación:

• Descentralizado: múltiples lazos de control, donde cada controlador no posee


información de los restantes lazos. También se denomina implementación dia-
gonal.
• Centralizado: los múltiples lazos de control comparten información entre sı́ y la
forma de compartir esta información viene dada por el tipo de interacción, la
cual puede ser completa (full) o dispersa (sparse).

Ahora bien, cada una de esta polı́ticas (estructuras) de control se pueden implemen-
tar con diferentes “tecnologı́as de control”. Generalmente, las estructuras descentra-
lizadas se implementan con múltiples controladores PID, IMC, override, feedforward,
etc, que son estrategias tı́picas de controladores SISO. Las estrategias centralizadas
en cambio, si bien pueden implementarse con múltiples lazos, se encuentran mejor
preparadas para utilizar métodos basados en modelos como IMC o MPC, donde
el grado de interacción lo podemos definir con el propio modelo utilizado por el
algoritmo de control.
Como se puede observar, el espacio de potenciales soluciones se expande cada vez
más dependiendo de las consideraciones iniciales del problema y de las posibilidades
estructurales y tecnológicas del controlador (o controladores).

1.3. Normalización de las variables


El escalado de las variables o modelos es una cuestión importante en la práctica ya que
permite el análisis, diseño y ajuste de controladores de forma más simple. El procedimiento
requiere decisiones iniciales de cual es el rendimiento deseado del sistema y para ello es
necesario definir las magnitudes esperables de perturbaciones, cambios de setpoint, la
magnitud permitida en cada entrada y las desviaciones de las salidas (Skogestad and
Postlethwaite, 2005).

4
1.4. Sistemas de control a lazo abierto y a lazo cerrado

Supongamos un modelo no escalado SISO, en variables de desviación (sin valor no-


minal), con estructura de función transferencia (ver Sección 2.2.2) y en el dominio de
Laplace,
y ∗ (s) = gp∗ (s)u∗ (s) + gd∗ (s)d∗ (s) (1.1)
una forma útil de escalar las señales es normalizar a cada una de ellas por su “valor máximo
esperado o permitido”: ymax , umax y dmax , entonces las variables escaladas resultan:

y ∗ (s) u∗ (s) d∗ (s)


y(s) = , u(s) = , d(s) = (1.2)
ymax umax dmax
y por lo tanto podemos escribir que:
−1 ∗ −1
gp∗ (s)u∗ (s) + gd∗ (s)d∗ (s)

y(s) = ymax y (s) = ymax
−1 ∗ −1 ∗
 
= ymax gp (s)umax u(s) + ymax gd (s)dmax d(s) (1.3)
= gp (s)u(s) + gd (s)d(s)
−1 g ∗ (s)u −1 ∗
 
con gp (s) = ymax p max y gd (s) = ymax gd (s)dmax las versiones escaladas o norma-
lizadas del modelo y |y(t)| ≤ 1, |u(t)| ≤ 1 y |d(t)| ≤ 1,
En el caso de sistemas MIMO, los parámetros de escalado/normalización representan
matrices diagonales de la forma,
1 ny 
Σy = diag ymax , . . . , ymax ,
1 nu

Σu = diag umax , . . . , umax , (1.4)
1 nd

Σd = diag dmax , . . . , dmax ,

produciendo el modelo MIMO escalado

Gp (s) = Σ−1 ∗
y Gp (s)Σu , Gp (s) = Σ−1 ∗
y Gd (s)Σd (1.5)

Es importante tener en cuenta que si tenemos la posibilidad de realizar algún tipo de


experimento de identificación de sistemas, ver la Sección 2.4, entonces podemos norma-
lizar/escalar las señales a media cero y varianza unidad. Este tipo de normalización es
igualmente útil para análisis de modelos y/o para diseño de estructuras de control.

1.4. Sistemas de control a lazo abierto y a lazo cerrado


En la Fig. 1.2 se pueden observar dos casos tı́picos de sistemas de control. La es-
tructura de control a lazo abierto (CLA) en la Fig. 1.2(a) y la polı́tica de control a lazo
cerrado (CLC) en la Fig. 1.2(b) (control por retroalimentación unitaria de salida). Ambas
propuestas poseen su ventajas y desventajas, las cuales enunciaremos a continuación:

La estructura de CLA es más simple de implementar, requiriendo menor cantidad


de hardware (menor costo).

La estructura de CLA no presenta problemas de estabilidad si asumimos que el


controlador “gc ” y la planta “gp ” son estables.

En la polı́tica de CLA se requiere que gc = gp−1 para garantizar que la salida siga
siempre la trayectoria deseada, y = ysp . Esto puede ocasionar problemas de imple-
mentación, recordando que los controladores deben ser fı́sicamente realizables.

5
1.4. Sistemas de control a lazo abierto y a lazo cerrado

ysp u y
gc gp

(a) Control a lazo abierto


d

ysp e u y
gc gp

-
(b) Control a lazo cerrado

Figura 1.2: Sitemas de control

La estructura de CLA no puede garantizar cero de offset (seguimiento perfecto) si el


proceso (gp ) sufre modificaciones o se ve afectado por perturbaciones no medibles.

La polı́tica de CLC no necesita modelos perfectos para ajustar el controlador “gc ”,


por lo general modelos simples son de gran utilidad.

En la estructura CLC, si el controlador posee efecto integral podemos garantizar


y = ysp en estado estacionario, aún cuando tengamos error planta-modelo y actúen
perturbaciones no medibles.

La estructura de CLC puede resultar inestable, aún cuando el controlador y la planta


sean estables.

6
Capı́tulo 2
Modelado de procesos

Existen numerosas razones que justifican el desarrollo de modelos matemáticos de pro-


cesos y sistemas. El objetivo principal, para el desarrollo de modelos dinámicos de procesos,
es mejorar la operación de la planta en cuestión ası́ como lograr un conocimiento profundo
de los fenómenos intervinientes. Estos modelos también se utilizan para: 1- entrenamiento
de operarios, 2- diseño de procesos, 3- análisis de sistemas de seguridad y 4- diseño de
estrategias de control.
Es importante tener en cuenta que no existe un único modelo del proceso ya que
dicho modelo sólo es una versión aproximada del comportamiento real de la planta. La
complejidad y exactitud del modelo dependerá en lı́neas generales de su utilización final.
Cuanto más complejo es el modelo, mayor número de parámetros deberán ser determinados
y mayor calidad y cantidad de información será necesaria para llevar a cabo tal desarrollo.
En este curso nos focalizaremos en modelos desarrollados para control de procesos.
Generalmente, un modelo lineal entorno a un punto operativo es más que suficiente para
diseñar diferentes estrategias de control. Con este objetivo en mente, en las siguientes sec-
ciones se detallan las diferentes alternativas para desarrollar modelos estáticos y dinámicos
de procesos.

2.1. Modelos de primeros principios


Se denomina modelo de primeros principios del proceso al modelo matemático resul-
tante de aplicar los principios fı́sico-quı́micos para explicar los fenómenos subyacentes del
proceso. Estos modelos generalmente poseen la estructura de un sistema de ecuaciones
diferenciales no lineales de la forma:
ẋ = f (x, u, d, p)
(2.1)
y = g (x, u, d, p)

donde x es el vector de estados, u es el vector de entradas, d es el vector de perturbaciones


ingresando al sistema y p es el vector de incertidumbres (parámetros).
En este curso no nos centraremos en el desarrollo de este tipo de modelos matemáti-
cos. Asumiremos que dichos modelos fueron oportunamente construidos por ingenieros de
procesos y nos focalizaremos en la obtención de modelos simplificados para fines de con-
trol. En el caso de no contar con dichos modelos de primeros principios, abordaremos los
conceptos de modelado empı́rico que se describen en futuras secciones.
El ejemplo 2.1.1 resume las tareas tı́picas para realizar el modelado en primeros prin-
cipios de un reactor quı́mico isotérmico (unidad individual).

7
2.1. Modelos de primeros principios

fi

xAi

xA
xB
xP

Figura 2.1: Reactor de tanque continuamente agitado (CSTR)

Ejemplo 2.1.1 (Reactor quı́mico isotérmico). El óxido de etileno (producto A) se hace


reaccionar con agua (producto B) en un reactor de tanque continuamente agitado (CSTR)
para formar etilenglicol (producto P). Asumimos que el CSTR se mantiene a temperatura
constante y el agua se encuentra en exceso. La ecuación estequiométrica es A + B → P.
El esquema general del proceso se muestra en la Fig. 2.1.
Asumiendo el tanque perfectamente mezclado, una densidad uniforme (entrada, volu-
men y salida) y los flujos fi y f medidos en unidades de volumen/tiempo, entonces el
balance de materia global se puede expresar como:
dv
= fi − f (2.2)
dt
Para el balance de materia por componente es conveniente trabajar con unidades mo-
lares, especialmente si están involucradas reacciones quı́micas. Asumiendo que xA y xP
representan las concentraciones molares de los productos A y P (moles/volumen), respec-
tivamente, entonces resulta:
dvxA
= fi xAi − f xA + rA v
dt (2.3)
dvxP
= −f xP + rP v
dt
donde rA y rP representan la tasa de generación de las especies A y P por unidad de
volumen y xAi la concentración de entrada del producto A. Debido a la presencia de agua
en exceso, su concentración no cambia significativamente y la tasa de reacción es de primer
orden con respecto a la concentración de óxido de etileno. Por lo tanto podemos escribir
que rA = −kxA , donde k es la constante de tasa de reacción y el signo menos significa
que el producto A es consumido en la reacción. Cada mole de A reacciona con un mole de
B (estequiometrı́a) y produce un mol de P, por lo tanto la tasa de generación de P (por
unidad de volumen) es rP = kxA . De esta forma la Ec. 2.3 se puede escribir (expandiendo
la derivada del miembreo izquierdo):
dxA f
= (xAi − xA ) − kxA
dt v (2.4)
dxP f
= − xP + kxA
dt v
es importante resaltar que con la idea de simplificar un poco el cálculo se consideró trabajar
a volumen constante y por ello dv/dt = 0, con fi = f .

8
2.1. Modelos de primeros principios

1.68 6.42

1.67 6.41

1.66 6.4

1.65 6.39

xp [Kg mol/m3]
xa [Kg mol/m3]

1.64 6.38

1.63 6.37

1.62 6.36

1.61 6.35

1.6 6.34
0 5 10 15 0 5 10 15
Tiempo [min] Tiempo [min]

(a) Óxido de etileno - xA (b) Etilenglicol - xP

Figura 2.2: Respuesta dinámica del reactor para ∆f = +5 %

Asumiendo ahora la siguiente notación:

x = [v, xA , xP ]T , u = [fi , f, xAi ]T , p = k (2.5)

entonces, la Ec. 2.2 y la Ec. 2.4 se pueden agrupar como:


       
ẋ1 v̇ fi − f f1 (x, u, p)
ẋ =  ẋ2  =  ẋA  =  fi (xAi − xA ) /v − kxA  =  f2 (x, u, p)  (2.6)
ẋ3 ẋP −fi xP /v + kxA f3 (x, u, p)

recordando la condición v̇ = 0 (control de nivel implı́cito) la Ec. 2.6 se reduce sólo a las
ecuaciones diferenciales para ẋA y ẋP .

De la Ec. 2.6 podemos obtener los valores de estado estacionario (representados con el
subı́ndice “s”) haciendo ẋ = 0:

xAis k(v/fs )xAis


xAs = , xPs = (2.7)
k(v/fs ) + 1 k(v/fs ) + 1

notar que estos valores dependen de la relación v/fs denominada tiempo de residencia del
lı́quido dentro del tanque.
Este tiempo de residencia afecta o define la conversión del producto A que ingresa al
reactor, es decir:
xAis − xAs k(v/fs )
X= = (2.8)
xAis k(v/fs ) + 1
Considerando las siguientes condiciones, v = 2.9109 m3 , k = 0.311 1/min, fi = 0.2264
m3 /min, xAi = 8.0124 Kg mol/m3 , los valores de estado estacionario resultan xAs = 1.6029
y xPs = 6.4095 Kg mol/m3 . Con estas condiciones podemos integrar numéricamente la
Ec. 2.6 como se muestra en la Fig. 2.2 para un cambio de ∆f = +5 % en el flujo de salida
y observar como se comportan las conscentraciones de xA y xP . Debido a que estamos
trabajando a volumen constante, un cambio en el flujo se traduce en una modificación del
tiempo de residencia v/f . Un incremento del flujo produce una reducción del tiempo de

9
2.1. Modelos de primeros principios

residencia y por ello una reducción en la conversión del producto A al producto P. Esto se
observa en la Fig. 2.2(a) como un aumento de la concentración de óxido de etileno (xA )
y por ello una disminución en la producción de etilenglicol (xP ) como se muestra en la
Fig. 2.2(b).
En el capı́tulo 2 de Bequette (2002) se pueden encontrar varios ejemplos de modelado en
primeros principios basados en el balance de energı́a y materia, fenómenos termodinámicos,
efecto no lineal de válvulas de flujo, reacciones quı́micas, leyes de los gases, etc.

2.1.1. Linealización
Los modelos basados en primeros principios son generalmente modelos no lineales.
El diseño y análisis de estrategias de control de procesos usualmente se basa en modelos
lineales de la planta entorno de un punto operativo nominal, por ello resulta crucial obtener
alguna forma de linealización de tales modelos. En este caso utilizaremos una aproximación
en serie de Taylor.
Supongamos el siguiente modelo de una entrada, un estado y una salida:
ẋ = f (x, u)
(2.9)
y = g(x, u)
entonces f (x, u) puede aproximarse por Taylor de la siguiente forma

∂f (x, u) ∂f (x, u)
f (x, u) ≈ f (xs , us ) + (x − xs ) + (u − us ) + TOS (2.10)
∂x (xs ,us ) ∂u (xs ,us )
donde (xs , us ) son los valores de estado estacionario del estado y la entrada respectivamente
y TOS representa los términos de orden superior de la serie.
De forma similar se puede proceder con la función de salida

∂g(x, u) ∂g(x, u)
g(x, u) ≈ g(xs , us ) + (x − xs ) + (u − us ) + TOS (2.11)
∂x (xs ,us ) ∂u (xs ,us )
Si consideramos despreciable los términos de orden superior de la serie, ys = g(xs , us )
y f (xs , us ) = 0, podemos realizar el siguiente cambio de variables: x∗ = x − xs , u∗ = u − us
y y ∗ = y − ys y reescribir como
ẋ∗ = ax∗ + bu∗
(2.12)
y ∗ = cx∗ + du∗
donde a = (∂f (x, u)/∂x)|(xs ,us ) , b = (∂f (x, u)/∂u)|(xs ,us ) , c = (∂g(x, u)/∂x)|(xs ,us ) y
d = (∂g(x, u)/∂x)|(xs ,us ) .
Esta formulación se puede generalizar para el caso de nx estados, nu entradas y ny
salidas como:
ẋ∗ = Ax∗ + Bu∗
(2.13)
y∗ = Cx∗ + Du∗
siendo

∂fi (x, u) ∂fi (x, u) ∂gi (x, u) ∂gi (x, u)
aij = bij = cij = dij =
∂xj (xs ,us ) ∂uj (xs ,us ) ∂xj (xs ,us ) ∂uj (xs ,us )
(2.14)
los elementos (i, j) de las matrices Anx ×nx , Bnx ×nu , Cnx ×nx y Dnx ×nu , respectivamente.
Es importante destacar que las variables x∗ , y∗ y u∗ son vectores de desviaciones respecto
del punto nominal como se definió en párrafos anteriores.

10
2.2. Comportamiento dinámico

2.2. Comportamiento dinámico


El principal objetivo de esta sección es comprender el comportamiento dinámico de
los modelos. Comenzaremos trabajando con modelos en espacio de estados, usualmente
obtenidos mediante linealización de modelos no lineales, para luego introducir el concepto
de transformada de Laplace. Los modelos basados en funciones de transferencia utilizan el
concepto de transformada de Laplace y serán el punto de partida para muchas estrategias
de diseño de estructuras de control de procesos.
Los ingenieros de procesos tienden a pensar la dinámica del proceso en términos de la
respuesta de la planta a una entrada del tipo escalón. Las respuestas habituales que se en-
cuentran en procesos industriales son del tipo subamortiguada, integral, sobreamortiguada
e inversa.

2.2.1. Estabilidad de modelos lineales en espacio de estados


Uno de los primeros conceptos básicos que necesitamos recordar en este punto es la idea
de estabilidad del modelo. Consideremos el modelo lineal de la Ec. 2.13 donde uno o más
estados son perturbados de su condición de estado estacionario o de su punto operativo. El
proceso es estable si luego de un tiempo determinado su variables retornan a su condición
de estado estacionario. Esto significa que las variables de estado, ya que están expresadas
como desviaciones, retornan a cero.
Numéricamente, podemos determinar la estabilidad del modelo en espacio de estados
analizando los autovalores de la matrix de estado Anx ×nx en la Ec. 2.13. Si todos los
autovalores son negativos (parte real negativa) el sistema es estable. Si cualquier autovalor
es positivo (parte real positiva) el sistema es inestable.
Los autovalores de una matriz cuadrada a valores reales pueden ser reales o complejos.
En el caso de que exista algún autovalor complejo aparecerá como complejo conjugado.
Más aún, cualquier matriz real con orden, nx , impar tiene al menos un autovalor real,
mientras que una matriz real con orden par puede no tener ningún autovalor real. La
anterior afirmación resulta de la propiedad que vincula la traza de la matriz y la suma de
sus autovalores (Skogestad and Postlethwaite, 2005).
Matemáticamente, los autovalores de la matriz de estado Anx ×nx se obtienen de las
raı́ces del siguiente polinomio caracterı́stico:

det(λI − A) = 0 (2.15)

donde I es la matriz identidad de dimensión (nx × nx ) y λ el autovalor. En este caso


existirán nx raı́ces (autovalores).
En el Apéndice A se puede observar la forma en que la Ec. 2.15 está asociada a la
estabilidad del sistema cuando cambiamos a la representación del tipo función de transfe-
rencia. Los autovalores de la matriz de estado son los polos (singularidades) de la función
de transferencia.

2.2.2. Funciones de transferencia


La relación en el dominio de Laplace que vincula la entrada con la salida de un proceso
se denomina “función de transferencia”.
Consideremos la siguiente ecuación diferencial,

y(t)(ny ) +any −1 y(t)(ny −1) +. . .+a0 y(t) = bnu u(t)(nu ) +bnu −1 u(t)(nu −1) +. . .+b0 u(t) (2.16)

11
2.2. Comportamiento dinámico

donde y(t)(ny ) indica la derivada ny -ésima respecto del tiempo de y(t) (de forma similar
u(t)(nu ) ). Si consideramos las condiciones iniciales nulas, podemos aplicar la transformada
de Laplace a ambos miembros en Ec. 2.16 para obtener:
sny + any −1 sny −1 + . . . + a0 y(s) = bnu snu + bnu −1 snu −1 + . . . + b0 u(s)
 
(2.17)
donde sny es la variable compleja de Laplace elevada al exponente ny (de forma simi-
lar para snu ) y tanto y(s) como u(s) son las transformadas de Laplace de y(t) y u(t),
respectivamente. Podemos definir la función de transferencia como:
y(s) bn snu + bnu −1 snu −1 + . . . + b0
g(s) = = uny (2.18)
u(s) s + any −1 sny −1 + . . . + a0
donde las raı́ces del polinomio numerador son los ceros de la función y las raı́ces del deno-
minador los polos del sistema. Retomaremos más adelante la relevancia de polos y ceros.
En el caso de que trabajemos con sistemas multivariables, donde las entradas y salidas
son vectores, la función g(s) estará dada por una matriz de funciones de transferencia.
Un concepto importante en este tipo de representación de sistemas es el orden relativo
ny − nu , donde se pueden distinguir los siguientes escenarios:
si ny − nu = 0, entonces la función g(s) es semipropia (o propia) y
g(s) → γ 6= 0 cuando s → ∞

si ny − nu > 0, entonces la función g(s) es estrictamente propia y


g(s) → 0 cuando s → ∞

si ny − nu < 0, entonces la función es impropia

2.2.3. Sistema de primer orden


Muchos procesos pueden ser modelados como sistemas de primer orden. La ecuación
diferencial que rige este comportamiento es:
τp ẏ(t) + y(t) = kp u(t) (2.19)
y aplicando Laplace podemos obtener la función de transferencia,
kp
y(s) = u(s) (2.20)
τp s + 1
donde τp la constante de tiempo del proceso (unidades de tiempo) y kp es la ganancia del
proceso (unidades de y/u).
La respuesta a un escalón de entrada u(s) = ∆u/s se puede expresar como,
kp ∆u
y(s) = (2.21)
(τp s + 1) s
que se puede representar en el dominio temporal, aplicando fracciones parciales y la anti
transformada de Laplace, como:
 
y(t) = kp ∆u 1 − e−t/τp . (2.22)
Cuando t = τp la Ec. 2.22 se reduce a:
y(τp ) = kp ∆u 1 − e−1 = 0.632kp ∆u

(2.23)
es decir, la constante de tiempo τp nos indica el tiempo necesario para alcanzar el 63.2 %
del valor final de la salida.

12
2.2. Comportamiento dinámico

∆y

∆y(τp)=0.632∆y

Temperatura [ºC]
τp1 = 5 min
τp2 = 8 min
τp3 = 2 min

0
0 τp3 τp1 τp2 15 20 25 30 35 40 45 50
Tiempo [min]

Figura 2.3: Respuesta dinámica para ∆u = 10 kW

Ejemplo 2.2.1 (Calentador de tanque agitado). El balance de energı́a en el ejemplo 2.3


de Bequette (2002) se puede escribir como:
τp ∆ẏ = −∆y + kp ∆u (2.24)
donde ∆y = t − ts y ∆u = q − qs son la temperatura del lı́quido dentro del tanque y la
cantidad de calor suministrado, en su forma de desviaciones respecto al valor nominal
(de estado estacionario). Notar que la Ec. 2.24 se puede escribir como se muestra en la
Ec. 2.20 si utilizamos la transformada de Laplace. En este caso la constante de tiempo y
la ganancia del proceso vienen dados por:
v 1
τp = , kp = (2.25)
f f ρ cp
De la Ec. 2.25 podemos observar como la ganancia del sistema disminuye a medida que
el flujo f (de estado estacionario) aumenta. Esto tiene sentido fı́sico ya que para una dada
potencia de calentamiento q, la ganancia será menor para procesos de gran escala (mayores
flujos). De igual forma podemos ver como el tiempo de residencia v/f afecta la dinámica
del proceso. Sistemas con elevados v/f tienden a tener bajos tiempos de respuesta.
Consideremos el caso particular de vs = 50 litros, un flujo constante de fs = 10
litros/minuto y para el caso de que el lı́quido sea agua ρcp = 1 kcal/litroo C, entonces:
oC
τp = 5 min, kp = 1.434
kW
es importante tener en cuenta que 1 kcal/min = 0.069733 kW .
En la Fig. 2.3 se puede observar la respuesta a un escalón de entrada de ∆u = 10 kW
cuando utilizamos diferentes volúmenes del tanque: vs1 = 50, vs2 = 80 y vs3 = 20 litros. Se
muestra claramente como el tiempo de residencia (v/f ) impacta en la respuesta dinámica
de calentamiento del fluido. En este caso un aumento de volumen produce un incremento
en el tiempo de respuesta τp . El valor final que alcanza el sistema es ∆y = kp ∆u =
1.434 o C/kW · 10 kW = 14.34 o C para todos los casos, ya que la ganancia kp no se ve
afectada por un cambio de volumen de lı́quido.

13
2.2. Comportamiento dinámico

2.2.4. Sistema integrador


Los balances de materia en tanques de lı́quidos o gas generalmente producen modelos
de la forma ẏ(t) = ku(t), que en el dominio de Laplace se traduce a y(s) = (k/s)u(s). Si
asumimos condiciones iniciales nulas y que u(s) = ∆u/s es un escalón de amplitud ∆u en
el origen, entonces la respuesta del sistema es:
k∆u
y(s) = (2.26)
s2
Si aplicamos la antitransformada obtenemos:

y(t) = k · ∆u · t (2.27)

lo cual representa una recta de pendiente k∆u.

2.2.5. Sistema de segundo orden


Los sistemas de segundo orden denominados “puros” son los que poseen numerador
unitario en su representación mediante función de transferencia. Consideremos la siguiente
ecuación diferencial de segundo orden:

τ 2 ÿ(t) + 2ζτ ẏ(t) + y(t) = ku(t) (2.28)

donde k se denomina ganancia (unidades de salida/entrada), ζ es el factor de amorti-


guamiento (adimensional) y τ es el perı́odo natural (unidades de tiempo). Asumiendo
condiciones iniciales nulas y tomando la transformada de Laplace en ambos miembros se
tiene:
k
y(s) = 2 u(s) (2.29)
τ s + 2ζτ s + 1
El polinomio denominador de la Ec. 2.29 se denomina polinomio caracterı́stico y sus
raı́ces definen el comportamiento del sistema. Las raı́ces del polinomio caracterı́stico son
los polos del sistema. Dichas singularidades se pueden expresar como:
p p
ζ ζ2 − 1 ζ ζ2 − 1
p1 = − + p2 = − − (2.30)
τ τ τ τ
Si consideramos ζ > 0 y τ > 0, entonces los polos de la Ec. 2.30 tienen parte real
negativa. Esto significa que el sistema es estable. Dependiendo del valor de ζ podemos
distinguir los siguientes escenarios:
ζ > 1: El sistema presenta dos polos reales distintos. La respuesta al escalón u(s) =
∆u/s es sobreamortiguada y tiene la forma:
!
τ2 e−t/τ2 − τ1 e−t/τ1
y(t) = k∆u 1 −
τ2 − τ1

donde
τ τ
τ1 = p τ2 = p
ζ − ζ2 − 1 ζ + ζ2 − 1
ζ = 1: El sistema presenta dos polos reales iguales. La respuesta al escalón es del
tipo amortiguamiento crı́tico y tiene la forma:
   
t −t/τ
y(t) = k∆u 1 − 1 + e
τ

14
2.2. Comportamiento dinámico

1.4

1.2

0.8

Salida 0.6

0.4 ζ=3
ζ=1
ζ=0.3
0.2

0
0 5 10 15
Tiempo [min]

Figura 2.4: Sistema de segundo orden puro - Diferentes ζ

ζ < 1: El sistema presenta dos polos complejos conjugados: La respuesta al escalón


es subamortiguada y se puede representar como:
" #
1
y(t) = k∆u 1 − p e−ζt/τ sen(αt + φ)
1 − ζ2

siendo p p !
1 − ζ2 1 − ζ2
α= φ = tan−1
τ ζ

Ejemplo 2.2.2 (Sistema de segundo orden puro). Consideremos la Ec. 2.29 con k = 1,
τ = 0.5 y sometida a un escalón unitario de entrada u(s) = 1/s en el origen. En este caso
evaluaremos la respuesta del sistema ante diferentes valores de amortiguamiento: ζ = 3
para el caso sobreamortiguato, ζ = 1 para el caso de amortiguamiento crı́tico y ζ = 0.3
para el caso subamortiguado. Todas las respuestas se pueden observar en la Fig. 2.4.

Es importante notar la diferencia existente entre la respuesta al escalón de un sistema


sobreamortiguado (o crı́ticamente amortiguado) y la respuesta de un sistema primer orden.
Los sistemas de segundo orden tienen una forma de “S” con su máxima pendiente en el
punto de inflexión. Por su lado los sistemas de primer orden tienen su máxima pendiente
en el origen.
Las respuestas subamortiguadas de segundo orden (ante un cambio en la entrada de
tipo escalón) se pueden caracterizar utilizando diferentes conceptos como se muestra en la
Fig. 2.5. El tiempo de subida (rise time), tr , es el tiempo que tarda el sistema en alcanzar
el valor estacionario “c” por primera vez. Otra caracterı́stica importante es el tiempo del
primer pico, tp . El valor en exceso (overshoot) “a” es la distancia entre el primer pico y
el nuevo estado estacionario y generalmente se expresa como relación de valor en exceso
“a/c”. Otro factor importante es la relación de decaimiento “b/a” que tiene en cuenta

15
2.2. Comportamiento dinámico

a
b

tr
0

Figura 2.5: Sistema de segundo orden puro

la magnitud de los dos primeros valores en exceso. Esta relación nos brinda información
acerca de como se extingue la oscilación. Finalmente se puede cuantificar el perı́odo de
oscilación “p”.
Los sistemas de segundo orden puros, por definición, poseen un grado relativo de dos.
También existen sistemas de segundo orden no puros, los cuales poseen algún tipo de
dinámica en el numerador. En este caso nos focalizaremos en sistemas de segundo orden
con grado relativo de uno como se muestra a continuación:
k(τn s + 1)
g(s) = (2.31)
(τ1 s + 1)(τ2 s + 1)
La respuesta al escalón u(s) = ∆u/s de este sistema resulta:
 
(τn − τ1 ) −t/τ1 (τn − τ2 ) −t/τ2
y(t) = k∆u 1 + e + e (2.32)
(τ1 − τ2 ) (τ1 − τ2 )

Ejemplo 2.2.3 (Sistema de segundo orden con grado relativo de uno). Consideremos el
siguiente sistema de segundo orden
(τn s + 1)
y(s) = u(s)
(3s + 1)(15s + 1)
y analicemos la respuesta al escalón unitario para diferentes valores de τn como muestra
la Fig. 2.6.
Cuando τn toma valores negativos (ceros del numerador positivos) la evolución de la
salida muestra lo que se conoce como “respuesta inversa”. Es decir, inicialmente la salida
evoluciona hacia la dirección contraria a la cual se establecerá en estado estacionario.
Este tipo de comportamiento es realmente desafiante desde el punto de vista de control.
Otra observación importante es que cuando τn toma valores positivos, pero mayores que
las constantes de tiempo del denominador, la respuesta presenta un sobrevalor o valor en
exceso (overshoot).

16
2.2. Comportamiento dinámico

1.2

0.8

0.6
τm = −15

0.4 τm = −10

Salida
τm = −3
0.2
τm = 3
0
τm = 10

−0.2 τm = 15

τm = 20
−0.4

−0.6
0 10 20 30 40 50 60
Tiempo [min]

Figura 2.6: Sistema de segundo orden - Diferentes τn

2.2.6. Sistema con tiempo muerto


En general el transporte de material a través de conductos genera retardos en la res-
puesta dinámica de los sistemas industriales. Recordando el segundo teorema de traslación
de la transformada de Laplace sabemos que un retardo de θ unidades de tiempo se traduce
en e−sθ en el dominio de Laplace. Por ejemplo, un comportamiento dinámico de primer
orden con retardo se puede expresar como:
k
e−sθ .
g(s) = (2.33)
τs + 1
La mayorı́a de los procesos industriales poseen este tipo de respuestas de primer orden
asociadas a un retardo.

Aproximación Padé del retardo


Algunas estrategias de diseño de controladores basadas en un modelo del proceso re-
quieren que dicho modelo se encuentre expresado como una función de transferencia racio-
nal. Por lo tanto es necesario obtener una representación del término e−sθ aunque sea de
forma aproximada. En la Ec. 2.34 se muestra la aproximación Padé de primer y segundo
orden, respectivamente.
θ2 2
−θ
2 s+1 12 s − θ2 s + 1
e−sθ ≈ θ
, e−sθ ≈ θ2 2
(2.34)
2s + 1 12 s + θ2 s + 1

Ejemplo 2.2.4 (Sistema con tiempo muerto y aproximación Padé). Consideremos el


siguiente sistema de primer orden con retardo.
1
e−10s
g(s) =
5s + 1
si utilizamos una aproximación Padé de primer orden obtenemos la siguiente función de
transferencia,
1 (−5s + 1) −5s + 1
g1 (s) = =
(5s + 1) (5s + 1) 25s2 + 10s + 1

17
2.3. Modelos empı́ricos

0.8

0.6
Salida

0.4

0.2

Original
0 Con Padé ord. 1
Con Padé ord. 2

−0.2

0 5 10 15 20 25 30 35 40
Tiempo [min]

Figura 2.7: Respuesta sistema con retardo y aproximaciones Padé

y si utilizamos una aproximación de segundo orden,


100 2 10

1 12 s − 2 s + 1 8.3333s2 − 5s + 1
g2 (s) = =
(5s + 1) 100 2 10
12 s + 2 s + 1
41.667s3 + 33.333s2 + 10s + 1
En la Fig. 2.7 se puede observar la respuesta al escalón unitario de las tres funciones
de transferencia mencionada anteriormente. Es importante notar que la aproximación de
primer orden introduce una respuesta inversa, mientras que la aproximación de segundo
orden introduce una respuesta inversa doble. Estos efectos se deben al cero positivo de
g1 (s) y a los ceros complejos conjugados con parte real positiva de g2 (s).

2.3. Modelos empı́ricos


Generalmente, en la industria real, no hay suficiente tiempo (o el esfuerzo que implica es
difı́cil de justificar económicamente) para el desarrollo de modelos en primeros principios.
Si el principal interés es ajustar un lazo determinado de control, entonces es muy probable
que se desarrolle una función de transferencia utilizando un test de planta. La prueba
de planta más común es realizar un cambio tipo escalón (step test) en la variable de
entrada (variable a manipular) y observar la respuesta de la variable de salida (variable a
controlar). Con estos datos de planta se ajusta un modelo simple.
En el caso de sistema multivariables, una variable de salida se ve afectada por varias
variables de entrada y también ocurre que una determinada entrada afectará a varias
salidas medidas. Esto deja de manifiesto que seleccionar un lazo de control puede ser
una tarea bastante compleja. En esta sección asumiremos que la variable controlada (VC)
y a variable manipulada (VM) ya fueron seleccionadas por algún tipo de método. El
Capı́tulo 4 aborda en detalle el caso de diseño de estructuras de control en sistemas de
múltiples entradas-múltiples salidas (MIMO).
En el test de planta del tipo escalón es importante conducir al proceso a un punto de
estado estacionario consistente antes de producir el cambio en la variable de entrada. Una
decisión de relevancia es la magnitud del cambio del salto escalón.

18
2.3. Modelos empı́ricos

∆y

63.2% de ∆y

τ
θ

Figura 2.8: Método del 63.2 % del valor final

Si la magnitud del cambio es muy pequeña, la salida no presentará modificaciones de


importancia. La magnitud del escalón debe ser tal que permita obtener una buena
relación “señal-ruido” a la salida. Esto nos permitirá obtener un modelo confiable.

Si la magnitud del cambio es considerable, puede producir una modificación severa


del punto operativo del proceso y generar que el producto se encuentre fuera de
especificación. Además, el comportamiento observado puede estar dominado por
efectos no lineales que no son representativos de la respuesta de la planta entorno al
punto operativo deseado.
Claramente, es necesario una decisión de compromiso en este sentido. Para ello es
importante tener conocimiento del proceso y en particular del par de entrada-salida bajo
consideración. En las secciones siguientes desarrollaremos modelos simples estimando sus
parámetros desde las observaciones del proceso.

2.3.1. Modelo de primer orden con retardo


El tipo de modelo más utilizado en el diseño de estructuras de control es el de primer
orden con retardo. Por ello, nos centraremos en esta topologı́a y veremos diferentes formas
de estimar sus parámetros.
Recordemos la estructura de un sistema modelado por un primer orden con retardo en
el dominio de Laplace,
ke−θs
y(s) = u(s) (2.35)
τs + 1
y su correspondiente respuesta temporal a un escalón u(s) = ∆u/s,

0, si t < θ
y(t) = (2.36)
k∆u [1 − exp (−(t − θ)/τ )] , si t ≥ θ

Si consideramos que la Fig. 2.8 representa la respuesta de la planta a un cambio


escalón en la entrada de magnitud ∆u en t = 0 y además trabajamos con desviaciones de
las variables (es decir sin sus valores de estado estacionario). Entonces la ganancia de la
planta se puede estimar dividiendo el valor final alcanzado por la salida por la magnitud de

19
2.4. Identificación de sistemas

0.4

0.35

0.3

0.25
Salida

dy/dt
0.2

Modelo estimado 0.15


Máxima pendiente
Recta aproximada
Respuesta del proceso 0.1

0.05
0

0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Tiempo Tiempo

(a) Respuesta del sistema y modelo estimado (b) Aproximación de la derivada

Figura 2.9: Método de la máxima pendiente

cambio de la entrada k = ∆y/∆u. El tiempo muerto θ también se puede estimar desde la


información medida del proceso identificando cuando la respuesta comienza a evolucionar
de forma significativa. A constinuación se presentan varias formas alternativas de estimar
la constante de tiempo τ .

Método del 63,2 % del valor final


Si elegimos t = θ + τ y recordando que k = ∆y/∆u entonces la Ec. 2.36 nos queda,
y(θ + τ ) = k∆u 1 − e−1 = 0.632k∆u = 0.632∆y


entonces t = θ + τ es el valor de tiempo que le toma a la salida del proceso en alcanzar el


63.2 % del valor final.

Método de la máxima pendiente


Suponiendo que en el instante t = 0 se excitó al proceso con un cambio de tipo escalón
y se recogió la respuesta que se muestra en la Fig. 2.9, el método de máxima pendiente
tiene por finalidad aproximar una recta, y = mx + h, que pasa por dicho punto y con ella
estimar los parámetros de un modelo de primer orden con retardo. Como se muestra en la
Fig. 2.9(b) el punto de máxima pendiente se puede estimar realizando una aproximación
de la derivada temporal con los datos muestreados desde la planta.
Para el caso de modelo de primer orden, la máxima pendiente se encuentra en t = θ.
Esto se puede verificar derivando la expresión en la Ec. 2.36. De esta forma, podemos
estimar el tiempo de respuesta como τ = ∆y/m y el retardo θ como el instante temporal
donde la recta de máxima pendiente se cruza con el eje de tiempos. En la Fig. 2.9(a) se
puede observar la respuesta del modelo de primer orden con retardo estimado en este caso.
Generalmente, este tipo de modelos es más que suficiente para realizar tareas de ajuste de
controladores o diseño de estructuras de control.

2.4. Identificación de sistemas


La teorı́a de identificación de sistemas aborda el problema de construir modelos ma-
temáticos directamente desde la información observada del sistema o proceso. Si bien

20
2.4. Identificación de sistemas

0.8

0.6

0.4

0.2

Ts
0

t − 2Ts t t + 2Ts

Figura 2.10: Salida medida a intervalos Ts de tiempo - Muestreo

existen diferentes tipos de modelos y estrategias de identificación, en este caso particu-


lar presentaremos un modelo lineal en tiempo discreto del tipo ARX y la metodologı́a
denominada de mı́nimos cuadrados.
En la práctica, los cambios en las entradas manipuladas se realizan en intervalos de
tiempo discretos y las salidas medidas están disponibles en forma discreta a una determi-
nada tasa de muestreo. Los modelos en tiempo discreto son muy utilizados en diseño de
control digital y control predictivo basado en modelos (MPC).
En la Fig. 2.10 se puede observar un clásico ejemplo donde una determinada salida y(t)
se mide (observa) cada Ts intervalos de tiempo uniformes, i.e. frecuencia de muestreo de
fs = 1/Ts . Esto produce que el tiempo continuo “t” se transforme en una grilla de valores
discretos “k”. Por simplicidad, y para independizarnos del tiempo de muestreo, se suele
simplificar la notación de un instante temporal t + 2Ts por k + 2 directamente, como se
muestra en la figura.

2.4.1. Modelo autorregresivo con entrada externa (ARX)


Este tipo de modelo asume que el valor de la salida en el instante actual es una función
de valores pasados de la salida (autorregresivo) y de la entrada (entrada externa). Su forma
general es la siguiente (Ljung, 1999),

y(k) + a1 y(k − 1) + . . . + any y(k − ny ) = b1 u(k − 1) + . . . + bnu u(k − nu ) (2.37)

donde y(k) representa la salida en el instante actual, y(k − 1) en el instante anterior, y ası́
sucesivamente.
Reescribiendo la expresión anterior,

y(k) = −a1 y(k − 1) − . . . − any y(k − ny ) + b1 u(k − 1) + . . . + bnu u(k − nu )


ny nu
X X (2.38)
= −ai y(k − i) + bj u(k − j)
i=1 j=1

Si ahora tenemos en cuenta el operador desplazamiento temporal y(k − 1) = z −1 y(k),

21
2.4. Identificación de sistemas

podemos escribir que

b1 z −1 + . . . + bnu z −nu
y(k) = u(k) (2.39)
1 + a1 z −1 + . . . + any z −ny

que es la función de transferencia discreta.


De forma similar a la función que cumple la transformada de Laplace para sistemas
en tiempo continuo, la denominada transformada Z se aplica para sistemas definidos en
el dominio discreto. La vinculación entre ambas transformadas viene dada por z = esTs ,
donde Ts es el tiempo de muestreo. Por lo tanto, el semiplano izquierdo del plano complejo
(Re(s) < 0) que definı́a la estabilidad de los sistemas continuos en el dominio de Laplace
ahora se transforma en el interior de un circulo de radio uno, |z| < 1, para los sistemas
discretos.
La Ec.2.38 también se puede escribir en forma de regresor lineal como,

y(k) = φT (k)θ (2.40)

donde
 T
θ = a 1 , . . . , a n y , b 1 , . . . , bn u
(2.41)
φ(k) = [−y(k − 1), . . . , −y(k − ny ), u(k − 1), . . . , u(k − nu )]T

son el vector de parámetros y el regresor de entradas y salidas, respectivamente.

2.4.2. Método de mı́nimos cuadrados


Supongamos que para un dado sistema, del cual no conocemos los parámetros en θ,
recolectamos los datos de entrada y salida en un intervalo 1 ≤ k ≤ N , entonces podemos
expresar los siguientes vectores y matrices recordando la Ec. 2.41:

Y = [y(1), . . . , y(2), . . . , y(N )]T


 T   
φ (1) −y(0) ... −y(1 − ny ) u(0) ... u(1 − nu )
 φT (2)   −y(1) ... −y(2 − ny ) u(1) ... u(2 − nu ) 
Φ= .. = .. .. .. .. .. ..
   

 .   . . . . . . 
φT (N ) −y(N − 1) . . . −y(N − ny ) u(N − 1) . . . u(N − nu )
(2.42)

de donde podemos escribir en forma matricial que, Y = Φθ, y resolver en mı́nimos cua-
drados para obtener el vector de parámetros como,
−1
θ = ΦT Φ ΦT Y

(2.43)

Ejemplo 2.4.1 (Estimación de modelo ARX basada en mı́nimos cuadrados). Los datos de
planta utilizados en este ejemplo provienen de un experimento real de laboratorio recopilado
en Matlab R (iddemo1). El proceso observado se basa en introducir un flujo de aire en
un tubo, donde se calienta mediante un dispositivo adecuado. La variable de entrada es
la tensión (volt) del dispositivo de calentamiento y la variable de salida es la temperatura
(o C) del aire al salir del tubo. En la Fig. 2.11 se pueden observar las primeras 200 muestras

22
2.4. Identificación de sistemas

65 6.5

60 6

55 5.5

Calentamiento [V]
Temperatura [ºC]

50 5

45 4.5

40 4

35 3.5

30 3
0 20 40 60 80 100 120 140 160 180 200 0 20 40 60 80 100 120 140 160 180 200
Muestras Muestras

(a) Temperatura medida (o C) (b) Voltaje del dispositivo (V)

Figura 2.11: Datos recopilados del proceso de calentamiento de aire

de dichas variables. Es importante resaltar que se recolectaron en total 1000 muestras del
experimento a una tasa de muestreo de Ts = 0.08 segundos.
Inicialmente, los datos del experimento se dividen en dos conjuntos: 1- datos de estima-
ción, que nos permitirán estimar los parámetros del modelos ARX y 2- datos de validación,
los cuales nos permitirán evaluar las propiedades de predicción del modelo. En este caso
se utilizan 500 muestras para cada uno de estos conjuntos. Se propone ajustar un modelo
ARX de segundo orden, es decir ny = nu = 2, con lo cual la Ec. 2.41 nos queda,

θ = [a1 , a2 , b1 , b2 ]T
φ(k) = [−y(k − 1), −y(k − 2), u(k − 1), u(k − 2)]T

Construyendo la regresión lineal matricial de la Ec. 2.42 y utilizando mı́nimos cuadra-


dos como en la Ec. 2.43 se obtiene el vector de parámetros,

a1 = −1.6805 a2 = 0.7299 b1 = 0.0359 b2 = 0.4372

y la respuesta del modelo a los datos de validación se pueden observar en la Fig. 2.12.
En este caso de identificación de modelo SISO no se utilizó ningún tipo de pre-procesa-
miento particular de los datos de planta. Para el caso multivariable, puede ser muy im-
portante realizar algún tipo de normalización de los datos antes de aplicar alguno de los
algoritmos de identificación. Esto se debe a que en sistemas MIMO podemos tener en jue-
go diferentes tipos de variables fı́sicas del proceso y deseamos que todas contribuyan de la
misma forma en el proceso de identificación. Una normalización tı́pica, como discutimos
en la Sección 1.3, es autoescalar los datos a media cero y varianza unidad.

2.4.3. Estructura general de los modelos


La estructura general de los modelos lineales utilizados en identificación de sistemas
tiene la siguiente forma,
B(z −1 ) C(z −1 )
A(z −1 )y(k) = u(k) + e(k) (2.44)
F (z −1 ) D(z −1 )

23
2.4. Identificación de sistemas

65

60

55

Temperatura [ºC]
50

45

40

35 Real
Modelo

30
0 50 100 150 200 250 300 350 400 450 500
Muestras

Figura 2.12: Comprobación del modelo ARX con datos de validación

esta estructura puede generar 32 topologı́as de modelos diferentes, dependiendo de que


polinomios A(z −1 ), B(z −1 ), F (z −1 ), C(z −1 ) y D(z −1 ) sean considerados. En esta sección
sólo mencionaremos los más comúnmente utilizados en práctica. Es importante notar que
el término e(k) hace referencia a ruido blanco.
Cada uno de los anteriores polinomios se definen como,

A(z −1 ) = 1 + a1 z −1 + . . . + ana z −na


B(z −1 ) = b1 z −1 + . . . + bnb z −nb
C(z −1 ) = 1 + c1 z −1 + . . . + cnc z −nc (2.45)
D(z −1 ) = 1 + d1 z −1 + . . . + dnd z −nd
F (z −1 ) = 1 + f1 z −1 + . . . + fnf z −nf

donde na , nb , nc , nd y nf son los órdenes de cada polinomio, respectivamente.


Es muy habitual en procesos industriales que la relación entrada-salida presente algún
tiempo muerto. En este caso, si suponemos que existen nk muestras de retraso en esta
relación, el polinomio B(z −1 ) se puede modificar de la siguiente manera,

B(z −1 ) = bnk z −nk + bnk +1 z −nk −1 + . . . + bnk +nb −1 z −nk −nb +1 = z −nk B ∗ (z −1 )

donde el retardo z −nk queda explı́citamente expresado. Las estructuras más comunes se
resumen en la Tabla 2.1.
Es importante resaltar que el software Matlab R posee un toolbox de identificación
de sistemas con numerosas herramientas y algoritmos. Entre ellas, el toolbox presenta la
posibilidad de estimar modelos dinámicos de procesos directamente desde los datos de
planta (función procest) ası́ como también utilizar estructuras de modelos basada en
espacio de estados (función n4sid).

24
2.4. Identificación de sistemas

Tabla 2.1: Modelos comunes en identificación de sistemas SISO

Polinomios utilizados Nombre del modelo


B FIR
A, B ARX
A, B, C ARMAX
A, C ARMA
A, B, D ARARX
A, B, C, D ARARMAX
B, F OE
B, F, C, D BJ

25
Capı́tulo 3
Control clásico por retroalimentación

La mayorı́a de las plantas industriales poseen sistemas de control para asegurar si-
multáneamente el correcto comportamiento de numerosas variables del proceso, tales co-
mo presiones, temperaturas, niveles en recipientes, etcétera. Dependiendo entonces, de
las caracterı́sticas propias de tales sistemas de control, la planta a lazo cerrado presen-
tará un determinado comportamiento ante perturbaciones, cambios en las trayectorias de
referencia y eventos anormales.
En este capı́tulo estudiaremos las estrategias de control clásicas por retroalimentación
unitaria de salida para sistemas SISO. Presentaremos la estructura general, las partes
constitutivas, los diferentes algoritmos de control, las diferentes propuestas de ajuste de
los parámetros del controlador y las limitaciones de rendimiento.

3.1. Introducción
Dos conceptos generales proveen las bases para la mayorı́a de las estrategias de control
automático existentes: control por retroalimentación (feedback control) y control en avance
(feedforward control). El primero asociado a un lazo cerrado de control y el segundo a un
efecto de lazo abierto. En este capı́tulo nos centraremos en el control por retroalimentación,
dejando el control en avance para capı́tulos posteriores.
El control por retroalimentación es la técnica más utilizada y es el concepto subya-
cente en el cual se basa gran parte de la teorı́a de control automático. El control por
retroalimentación mantiene una condición deseada del proceso, midiendo el valor actual
de dicha condición, comparándola con la condición deseada y tomando acciones correcti-
vas en función de la diferencia existente. Esta estrategia es simple y efectiva, incluso ante
contingencias desconocidas. En lı́neas generales, el control por retroalimentación funciona
correctamente como “regulador” manteniendo la operación deseada del proceso rechazan-
do diversas perturbaciones y a su vez funciona de forma exitosa como “servo” llevando al
sistema hacia nuevos puntos operativos deseados (Lipták, 2006).
En la Fig. 3.1 se puede observar todos los elementos involucrados en un sistema de
control por retroalimentación unitaria de salida, expresado en el dominio de Laplace. A
continuación describiremos cada uno de estos componentes:
gc (s): función de transferencia del controlador ,

gd (s) = y(s)/d(s): función de transferencia salida/perturbación con u(s) = 0,

gp (s) = y(s)/u(s): función de transferencia salida/entrada con d(s) = 0,

ga (s): función de transferencia del actuador,

27
3.1. Introducción

d(s)
gd (s)

ysp (s) e(s) u(s) + ym (s)


gc (s) ga (s) gp (s) gs (s)
+ +
- ua (s) y(s)

Figura 3.1: Sistema de control por retroalimentación unitaria de salida

gs (s): función de transferencia del sensor,

ysp (s): trayectoria de referencia o setpoint,

e(s): error de seguimiento,

u(s): salida del controlador o variable manipulada (VM),

ua (s): salida del actuador,

ym (s): variable medida del proceso, salida del sensor o variable controlada (VC),

y(s): variable real del proceso,

d(s): variable de perturbación (VP)

Los actuadores son dispositivos que permiten que la señal proveniente de un controlador
sea interpretada y efectivamente aplicada a la planta. Estos dispositivos pueden presentar
tanto dinámicas lineales como no lineales y por ello se representan con ga (s). De forma
similar, los sensores son componentes que permiten registrar e interpretar las variables
fı́sicas del proceso y convertirlas en señales utilizables por el controlador en cuestión.
También poseen su propia dinámica representada por gs (s) y además estos dispositivos
generalmente introducen ruidos de medición.
Es habitual en el diseño de estructuras de control clásicas asumir que ga (s) = gs (s) = 1.
Esto significa que los actuadores y sensores no introducen modificaciones de relevancia o en
su defecto que ya fueron modelados como parte del proceso (lı́nea a trazos en la Fig. 3.1). Es
importante destacar que existen otras lı́neas de investigación en la teorı́a de control donde
los actuadores y los sensores juegan un papel preponderante en el diseño de estructuras
de control, por ejemplo control tolerante a fallos.

3.1.1. Funciones de transferencia a lazo cerrado


Asumiendo la condición ga (s) = gs (s) = 1 entonces y(s) = ym (s) y u(s) = ua (s), con
lo cual la salida del proceso se puede expresar como,

y(s) = gp (s)u(s) + gd (s)d(s) (3.1)

y el error de seguimiento como

e(s) = ysp (s) − y(s) (3.2)

28
3.1. Introducción

ası́ la variable manipulada resulta

u(s) = gc (s) (ysp (s) − y(s)) (3.3)

introduciendo Eq. 3.3 en Eq. 3.1 resulta,

y(s) = gp (s)gc (s) (ysp (s) − y(s)) + gd (s)d(s) (3.4)

operando con esta última ecuación podemos escribir la siguiente relación a lazo cerrado,

gp (s)gc (s) 1
y(s) = ysp (s) + gd (s)d(s)
1 + gp (s)gc (s) 1 + gp (s)gc (s)
L(s) 1 (3.5)
= ysp (s) + gd (s)d(s)
1 + L(s) 1 + L(s)
= T (s)ysp (s) + S(s)gd (s)d(s)

donde:

L(s) = gp (s)gc (s) es la función de transferencia de lazo directo,

S(s) = (1 + L(s))−1 es la función de sensibilidad y

T (s) = L(s) (1 + L(s))−1 es la función de sensibilidad complementaria,

notar que T (s) + S(s) = 1.


Observando la Eq. 3.5 vemos que T (s) es la función de transferencia desde la señal
de setpoint a la salida y S(s) es la transferencia desde la señal de perturbación a la
salida. Es importante notar que estos conceptos también se aplican a sistemas de control
multivariables (Skogestad and Postlethwaite, 2005).

3.1.2. ¿Porqué la retroalimentación?


Si en la Fig. 3.1 asumimos que no hay efectos de actuadores/sensores, que no hay retro-
alimentación (e(s) = ysp (s)), que conocemos perfectamente el efecto de las perturbaciones
gd (s)d(s) y suponemos un control en avance como gc (s) = gp−1 (s) (suponiendo que la in-
versa existe), entonces si consideramos la siguiente trayectoria de referencia modificada
ysp (s) − gd (s)d(s), podemos expresar que:

y(s) = gp (s)u(s) + gd (s)d(s)


= gp (s)gc (s)(ysp (s) − gd (s)d(s)) + gd (s)d(s)
(3.6)
= gp (s)gc (s)ysp (s) − gp (s)gc (s)gd (s)d(s) + gd (s)d(s)
= ysp (s)

Claramente la Eq. 3.6 no se cumple en la realidad debido a errores de modelado en


gp (s) y a un desconocimiento de las perturbaciones del sistema en gd (s)d(s).
Entonces, como veremos en las siguientes secciones la retroalimentación en los lazos
de control nos permitirá tener en consideración los errores de modelado (incertidumbre
en gp (s) y desconocimiento en gd (s)d(s)), de los cuales lamentablemente no podremos
escapar, y que el controlador compense estos errores automáticamente llevando la VC
hacia el setpoint deseado.

29
3.1. Introducción

3.1.3. Estabilidad a lazo cerrado


Comúnmente se utilizan dos métodos diferentes para analizar la estabilidad a lazo
cerrado de los sistemas de control,

Se evalúan los polos del sistema a lazo cerrado. Es decir, se computan los ceros de
(1 + L(s)) = 0 donde L(s) es la función de transferencia de lazo directo. El sistema
a lazo cerrado es estable si y sólo si todos los polos poseen parte real negativa, i.e.
pertenecen al semiplano izquierdo del plano complejo.

Se analiza la respuesta frecuencial. Contando cuantas veces el gráfico de L(jw) encie-


rra el punto crı́tico “-1” mediante el criterio de estabilidad de Nyquist o utilizando
el criterio de estabilidad de Bode el cual sugiere que el sistema a lazo cerrado es
estable si |L (jw180 )| < 1, donde w180 es la frecuencia donde ∠L (jw180 ) = −180o .

Ejemplo 3.1.1 (Control proporcional de un sistema no mı́nima fase). En función de los


conceptos presentados hasta el momento, abordemos el análisis de un sistema de control
proporcional, gc (s) = k, por retroalimentación unitaria de salida para el proceso siguiente,

3(−2s + 1)
gp (s) = , gd (s) = 0
(5s + 1)(10s + 1)
.
De la Ec. 3.5 podemos definir,
(5s + 1)(10s + 1) + 3k(−2s + 1)
1 + L(s) = 1 + gp (s)gc (s) =
(5s + 1)(10s + 1)

entonces la estabilidad a lazo cerrado viene dada por (1 + L(s)) = 0 y desarrollando el


numerador anterior tenemos,

50s2 + (15 − 6k)s + (3k + 1) = 0

el criterio de Routh-Hurwitz para sistemas de segundo orden dice que las raı́ces de dicho
polinomio serán estables si todos los coeficientes tienen el mismo signo, entonces,

15 − 6k > 0, 3k + 1 > 0

y resolviendo las desigualdades obtenemos el rango de variación de la ganancia del con-


trolador −1/3 < k < 5/2 para garantizar la estabilidad a lazo cerrado.
Es importante notar que para la estructura de control de la Fig. 3.1, donde presentamos
la retroalimentación negativa de salida (k ≥ 0), sólo el lı́mite superior de ganancia k < 5/2
tiene sentido práctico.
Si ahora evaluamos la función de sensibilidad complementaria,
3k(−2s + 1)
T (s) = L(s) (1 + L(s))−1 =
(5s + 1)(10s + 1) + 3k(−2s + 1)

podemos observar que en estado estacionario T (0) = 3k/(1+3k) lo que significa que con es-
te tipo de controlador proporcional la salida del proceso presentará un “offset” (diferencia)
respecto del setpoint deseado. Lo ideal serı́a que la trasnferecia entrada-setpoint presente
ganancia unitaria T (0) = 1. A medida que incrementemos la ganancia del controlador

30
3.2. Controlador PID

k = 0.5
k=1
k=3

Salida

0 5 10 15 20 25 30 35 40 45
Tiempo

Figura 3.2: Control proporcional de un sistema no mı́nima fase

podrı́amos disminuir esta diferencia, haciendo que T (0) → 1, pero lamentablemente tene-
mos restricciones de estabilidad, k < 5/2, con lo cual la ganancia no puede aumentarse
indefinidamente.
En la Fig. 3.2 se puede observar la respuesta del sistema no mı́nima fase controlado
por retroalimentación unitaria de salida y con diferentes controladores proporcionales, k =
[0.5, 1, 3]. En t = 0 se realiza un cambio unitario del tipo escalón en la trayectoria de
referencia. Se puede apreciar el comportamiento estable y con offset para k < 5/2 y la
respuesta inestable para k = 3.

3.2. Controlador PID


Recordando que el controlador proporcional puede producir un offset (diferencia) entre
el setpoint deseado y la salida actual, el próximo paso entonces es agregar un término al
controlador que pueda tener en cuenta la integral de este error de seguimiento, e(t) =
ysp (t) − y(t). El controlador ası́ conformado posee el nombre de proporcional-integral (PI)
y conducirá a la señal de error de seguimiento e(s) a un valor nulo.
La estructura general del controlador PI, en el dominio temporal, es la siguiente:
Z t
1 t
 Z 
u(t) = kC e(t) + kI e(t)dt = kC e(t) + e(t)dt (3.7)
0 τI 0

donde τI = kC /kI es conocida como la constante de tiempo integral (también como “reset
time”). Tanto kC como kI (τI ) son parámetros de ajuste del controlador, los cuales deberan
ser seleccionados por el ingeniero de control/procesos.
Si ahora aplicamos la transformada de Laplace a la Ec. 3.7 obtenemos la siguiente ley
del controlador en el domino transformado,
 
1
u(s) = kC 1 + e(s) (3.8)
τI s

31
3.2. Controlador PID

El siguiente nivel de complejidad en el controlador es adicionar un término que pueda


considerar la tasa de cambio (derivada) del error de seguimiento de la referencia. La
utilización del conocimiento de la derivada del error permite al controlador “predecir”
hacia dónde se dirige el error futuro y compensarlo. La representación de un controlador
PID en el dominio temporal es,
Z t
1 t
 
de(t) de(t)
Z
u(t) = kC e(t) + kI e(t)dt + kD = kC e(t) + e(t)dt + τD (3.9)
0 dt τI 0 dt

donde τD = kD /kC se denomina la constante de tiempo derivativa.


Trabajando ahora en el dominio de Laplace tenemos,
 
1
u(s) = kC 1 + + τD s e(s) (3.10)
τI s

3.2.1. Diferentes estructuras del controlador PID


La ecuación general del controlador PID se puede representar de diferentes maneras
según se indica a continuación (Åström and Hägglun, 1995).

No interactivo: la función de transferencia del controlador definida por la Ec. 3.10,


 
1
gc (s) = kC 1 + + τD s (3.11)
τI s

define la bien conocida estructura no interctiva (o clásica). Su nombre se debe a que


la constante de tiempo integral no afecta la parte derivativa y viceversa.

Interactivo: una versión diferente y muy utilizada en la industria es la estructura inter-


activa defina por,  
∗ 1
gc (s) = kC 1 + ∗ (1 + τD∗ s) (3.12)
τI s
donde la interacción se puede observar claramente de las siguientes relaciones de
transformación entre los dos casos anteriores,
(τI∗ + τD∗ ) (τI∗ τD∗ )
kC = kC∗ , τI = τI∗ + τD∗ , τD =
τI∗ (τI∗ + τD∗ )
.
También se pueden obtener los parámetros de una estructura interactiva en función
de los parámetros de ajuste de una versión no interactiva, pero en este caso la
conversión sólo es posible si se cumple que τI ≥ 4τD , resultando:
kC  p 
kC∗ = 1 + 1 − 4τD /τI
2
∗ τI  p 
τI = 1 + 1 − 4τD /τI
2
∗ τI  p 
τD = 1 − 1 − 4τD /τI
2
La razón de la popularidad de la estructura interactiva radica en que los primeros
actuadores neumáticos se construı́an fácilmente mediante esta filosofı́a. Luego con el
advenimiento de la tecnologı́a analógica-eléctrica y luego digital-computacional esta
estructura continuó incorporándose como una estructura válida elegible.

32
3.2. Controlador PID

Paralelo: si sólo consideramos la primera igualdad de la Ec. 3.9 obtenemos la deno-


minada estructura paralela del controlador PID, dada por la siguiente función de
transferencia,
kI
gc (s) = kC + + kD s (3.13)
s
donde podemos observar cierta independencia entre los modos proporcional-integral-
derivativo a la hora de seleccionar sus ajustes. Si bien su estructura es similar a
la versión no interactiva o clásica, el valor de sus parámetros pueden se bastante
diferentes: kC , kI = kC /τI y kD = kC τD .
Esta estructura se utiliza comúnmente en cálculos analı́ticos debido a que los paráme-
tros aparecen de forma lineal en la ley del controlador.

Debido a que el modo derivativo actúa en función de la tasa de cambio de la señal de


error, e(t) = ysp (t) − y(t), para el caso de cambios repentinos en el setpoint realizados por
el operador (tipo escalón), este modo puede causar molestias innecesarias (conocido como
patada) en la variable manipulada. En tales casos, es recomendable tomar precauciones
especiales. Por ejemplo, es necesario cambiar el algoritmo de control definido en la Ec. 3.9
para que sea insensible a tales efectos. Esto se logra considerando la derivada de la señal
medida directamente en lugar de su error de seguimiento, es decir (Lipták, 2006):

1 t
 
dy(t)
Z
u(t) = kC e(t) + e(t)dt − τD (3.14)
τI 0 dt

Ejemplo 3.2.1 (Control con diferentes estructuras PID). En este ejemplo mostraremos el
efecto de controlar la planta gp (s) = 1/(s + 1)3 con diferentes estructuras del controlador.
En particular utilizaremos controladores P, PI, PD y PID, con los siguientes ajustes de
parámetros:

Controlador proporcional (P), kC = 1,

Controlador proporcional-integral (PI), kC = 1, τI = 2,

Controlador proporcional-derivativo (PD), kC = 1, τD = 2,

Controlador proporcional-integral-derivativo (PID), kC = 3, τI = 2, τD = 1,

Se utilizó la topologı́a no interactiva descrita anteriormente y los resultados, ante un cam-


bio de setpoint unitario, se pueden observar en la Fig. 3.3. De acuerdo a lo discutido
anteriormente las estructuras P y PD presentan offset en el seguimiento de la trayectoria
de referencia, mientras que los controladores con modos integradores (PI, PID) no poseen
errores de estado estacionario. Por otro lado, los controladores con modos derivativos tien-
den a reaccionar más rápido debido a que poseen información respecto de las derivadas
del error e seguimiento.

33
3.2. Controlador PID

Salidas

P
PI
PD
PID

0 2 4 6 8 10 12 14
Tiempo

Figura 3.3: Control con diferentes estructuras PID

3.2.2. Banda proporcional


Hasta el momento utilizamos una formulación de los controladores basados en la ga-
nancia proporcional kC . Algunos controladores industriales utilizan el concepto de “banda
proporcional”, definida como BP = 100/kC , para cuantificar la sensibilidad de la acción
proporcional. La BP es el rango del error de seguimiento el cual causa que la salida del
controlador (VM) cambie en su rango completo (100 %). Por ejemplo, una ganancia de
kC = 2.5 genera una banda proporcional de BP = 40 %, lo que significa que el error de
entrada en este controlador debe cambiar en 40 % para hacer un cambio en la salida en
100 % (Åström and Hägglun, 1995; Lipták, 2006).

3.2.3. Saturaciones producidas por el integrador (reset windup)


Si bien presentamos los sistemas de control en un marco de trabajo lineal, pueden
ocurrir efectos no lineales de todas formas. Puede ocurrir que cierta operación de los siste-
mas de control (i.e. grandes cambios en el setpoint, grandes perturbaciones, fallas) genere
que la VM alcance valores lı́mites y conduzca a los actuadores a sus extremos operativos
(lı́mites fı́sicos). En este caso, el lazo de retroalimentación se rompe y el sistema opera a
lazo abierto. Si el controlador instalado posee acción integral, el error de seguimiento será
integrado continuamente y la contribución integral se puede volver dominante en la ley
de control (windup). Es necesario entonces que el error de seguimiento invierta el signo
de su error por un largo perı́odo de tiempo de forma tal de disminuir el error integra-
do previamente, antes de volver a un estado de operación normal (Åström and Hägglun,
1995).
A continuación mencionaremos algunas estrategias para evitar este efecto nocivo de
“windup” en el integrador:
Limitaciones en el setpoint: la más simple es imponer limitaciones a los potenciales
cambios del setpoint de forma tal que las VMs nunca generen que los actuadores
alcancen su lı́mites fı́sicos. De todas formas, esta estrategia no evita el windup pro-
ducido por perturbaciones.

Retro-cálculo y seguimiento: esta propuesta modifica la estructura general de control

34
3.3. Ajuste del controlador PID

de la 3.1 retroalimentando también la señal de error es (s) = ua (s) − u(s) hacia la


entrada del módulo integrador del controlador gc (s). Esto permite tener en conside-
ración la saturación de ua (s) e introducir una señal que disminuya el error integrado
total.

Banda proporcional: el concepto de banda proporcional se puede utilizar aquı́ para


definir lı́mites operativos de la variable controlada (VC) en función de los lı́mites
operativos del actuador en cuestión. Ası́ podremos garantizar que cuando la CV se
encuentre en esta banda, el integrador no producirá efecto “windup”.

Integración condicional: es una estrategia alternativa a la propuesta de retro-cálculo


donde la integración se habilita en determinados rangos de excursión o zonas.

Estas estructuras serán abordadas en detalle en el Capı́tulo 6.

3.3. Ajuste del controlador PID


En esta sección revisaremos algunas estrategias clásicas de ajuste de controladores
PID.

3.3.1. Ajuste basado en oscilación a lazo cerrado


La idea principal es desarrollar una estrategia sistemática para el ajuste de los tres
parámetros del controlador PID. El primer método popularmente utilizado se debe a la
publicación de Ziegler and Nichols in 1942.
El método de Ziegler-Nichols para ajuste a lazo cerrado fue uno de los primeros méto-
do rigurosos de ajuste de PID. La técnica no es muy utilizada hoy en dı́a debido a las
carcaterı́sticas oscilatorias a lazo cerrado y muy sensible a incertidumbres. Presentaremos
el método por razones históricas y porque está ı́ntimamente relacionada con la estrategia
llamada “autotune” de ajuste automático.
El método consiste de los siguientes pasos:

Con un controlador proporcional solamente (P), incrementar la magnitud de la ga-


nancia proporcional hasta que el sistema a lazo cerrado se encuentre en una oscilación
continua. Para valores de ganancia superiores el sistema es inestable y para valores
menores el sistema es estable.

El valor de la ganancia del controlador que causa esta oscilación continua se denomina
“ganancia crı́tica (o última)” kcu . El perı́odo entre picos de la oscilación se denomina
“perı́odo crı́tico (o último)”, pcu .

Dependiendo del controlador que usted quiera implementar, utilice la Tabla 3.1 para
definir los parámetros de ajuste.

3.3.2. Reglas de ajuste para primer orden con tiempo muerto


Las reglas de ajuste anteriores fuerzan al sistema a la oscilación continua. Obviamente,
desde el punto de vista técnico es una desventaja trabajar al borde de la inestabilidad.
En esta sección presentaremos reglas de ajuste empı́rico basado en modelos obtenidos del
proceso a lazo abierto y mediante pruebas del tipo escalón unitario. Los modelos utilizados
en este caso son del tipo primer orden con retardo como en la Ec. 2.33.

35
3.3. Ajuste del controlador PID

Tabla 3.1: Parámetros de ajuste - Método de Ziegler-Nichols a lazo cerrado

Parámetros
Controlador kC τI τD
P 0.5kcu - -
PI 0.45kcu pcu /1.2 -
PID 0.6kcu pcu /2 pcu /8

Tabla 3.2: Parámetros de ajuste - Métodos a lazo abierto

Ziegler-Nichols
Parámetros
Controlador kC τI τD
τ
P kθ - -
0.9τ
PI kθ 3.3θ -
1.2τ
PID kθ 2θ 0.5θ
Cohen-Coon
Parámetros
Controlador kC τI τD
τ θ

P kθ 1+ 3τ - -
τ θ
 θ(30+3θ/τ )
PI kθ 0.9 + 12τ 9+20θ/τ -
τ 4 θ
 θ(32+6θ/τ ) 4θ
PID kθ 3 + 4τ 13+8θ/τ 11+2θ/τ

Método Ziegler-Nichols a lazo abierto: la Tabla 3.2 resume las reglas de ajuste en
este caso. Se puede observar un potencial problema con los sistemas que presenten un
bajo valor de relación “retardo/constante de tiempo”, ya que genera un valor elevado
en la ganancia del controlador. Además, la constante de tiempo integral tiende a ser
demasiado baja, causando problemas de oscilación.

Parámetros de Cohen-Coon: este método fue desarrollado por Cohen and Coon en
1953. La Tabla 3.2 resume sus reglas de ajuste. El principal problema con esta
estrategia es que los parámetros no son muy robustos y cualquier pequeño cambio
en los parámetros del proceso puede ocasionar la inestabilidad del sistema a lazo
cerrado.

3.3.3. Sı́ntesis directa


Recordemos la estructura de control de la Fig. 3.1 (con ga (s) = gs (s) = 1) y que po-
demos cuantificar la estabilidad/rendimiento del sistema de control analizando la función
de sensibilidad complementaria T (s) que obtuvimos en la Ec. 3.5, y(s) = T (s)ysp (s).
En la metodologı́a de sı́ntesis directa se selecciona un comportamiento deseado a lazo

36
3.4. Control por modelo interno (IMC)

cerrado para T (s) = L(s) (1 + L(s))−1 , con L(s) = gp (s)gc (s). Basados en el conocimien-
to del modelo del proceso gp (s), buscamos un controlador gc (s) que cumpla con dicho
comportamiento deseado, es decir
T (s)
gc (s) = (3.15)
gp (s)(1 − T (s))
Dependiendo del comportamiento deseado y del modelo del proceso podremos obtener
controladores con diferentes grados de complejidad. Notar que el controlador resultante
también puede ser no realizable.
Esta técnica de sı́ntesis directa es similar en filosofı́a a la denominada “loop sha-
ping” donde se define un comportamiento para la ganancia de lazo directo |L(jw)| =
|gp (jw)gc (jw)| en un rango de frecuencias determinado. Ciertas condiciones deseables so-
bre las funciones de sensibilidad y sensibilidad complementaria se trasladan a la función
de lazo directo para su diseño (Skogestad and Postlethwaite, 2005).
En este curso no abordaremos el ajuste de controladores mediante estos métodos de
sı́ntesis directa o “loop shaping”, pero más adelante retomaremos los conceptos de funcio-
nes de sensibilidad evaluadas en frecuencia para cuantificar limitaciones en el rendimiento.
En las secciones siguientes presentaremos otra estrategia basada en modelos para el diseño
y ajuste de controladores, denominada control por modelo interno (IMC de sus siglas en
Inglés).

3.4. Control por modelo interno (IMC)


La estrategia de control denominada control por modelo interno (IMC de sus siglas
en Inglés) es una metodologı́a que se basa en el conocimiento del modelo del proceso.
Respecto a la clásica estructura de control PID, el control IMC presenta algunas ventajas
relacionadas con la facilidad de ajuste, el diseño transparente y un análisis claro entre
calidad de control y robustez.
Como veremos en secciones posteriores, el control IMC se puede transformar en una
estructura de retroalimentación unitaria de salida, donde para ciertos modelos, obtendre-
mos una vinculación directa con el control clásico PID y su ajuste. Esta es una buena
noticia, porque podemos reutilizar el equipamiento instalado para implementar conceptos
de control avanzado.
La estructura general de una polı́tica de control IMC se puede observar en la Fig. 3.4. Es
importante notar que, mediante álgebra de bloques, ésta estructura se puede representar
como un control clásico de retroalimentación unitaria de salida como se presentó en la
Fig. 3.1, si el controlador de lazo directo esta dado por:
gimc (s)
gc (s) = (3.16)
1 − gimc (s)g̃p (s)
Analicemos ahora la expresión de la función de transferencia a lazo cerrado del sistema
de control IMC de la la Fig. 3.4. Consideremos, inicialmente, las siguientes relaciones,
η(s) = y(s) − ym (s) = y(s) − g̃p (s)u(s),

eη (s) = ysp (s) − η(s) = ysp (s) − y(s) + g̃p (s)u(s),

u(s) = gimc (s)eη (s),

y(s) = gp (s)u(s) + gd (s)d(s)

37
3.4. Control por modelo interno (IMC)

d(s)
gd (s)

ysp (s) eη (s) u(s) + y(s)


gimc (s) gp (s)
+ +
-
ym (s)
+
g̃p (s)
-
η(s)

Figura 3.4: Estructura de control por modelo interno (IMC)

operando algebraicamente obtenemos,

gp (s)gimc (s) (1 − gimc (s)g̃p (s))


y(s) = ysp (s) + gd (s)d(s) (3.17)
1 + gimc (s) (gp (s) − g̃p (s)) 1 + gimc (s) (gp (s) − g̃p (s))

Antes de presentar el procedimiento de diseño de las estructuras de control IMC,


analicemos un poco la función de transferencia a lazo cerrado de la Ec. 3.17. Consideremos
que el proceso y(s) = gp (s)u(s) + gd (s)d(s) es estable,

Si no existe diferencia planta-modelo gp (s) = g̃p (s) y gimc (s) = g̃p−1 (s), entonces
garantizamos que y(s) = ysp (s), las perturbaciones d(s) no afectan (rechazo de per-
turbaciones) a lazo cerrado y la estructura de control es estable.

Si existe diferencia planta modelo gp (s) 6= g̃p (s) (error por dinámica no modelada)
la estabilidad a lazo cerrado dependerá de los ceros del denominador. Ahora bien, si
asumimos que en estado estacionario (s = 0) se cumple que gp (0) = g̃p (0) y asumi-
mos gimc (s) = g̃p−1 (s), podemos observar que seguimos manteniendo el seguimiento
perfecto de la trayectoria de referencia y el rechazo de perturbaciones, i.e. cero offset.

3.4.1. Procedimiento de diseño IMC


Los principales pasos en el diseño de estructuras de control basadas en la teorı́a de
IMC se resumen a continuación,

Factorizar el modelo del proceso en una parte invertible g̃p− (s) y una no invertible
g̃p+ (s)
g̃p (s) = g̃p− (s)g̃p+ (s)
generalmente la parte no invertible tiene en cuenta los ceros no mı́nima fase y/o los
tiempos muertos.

Construir el controlador gimc (s) como la inversa de la parte invertible del modelo y
asociarle un filtro pasa bajo (de orden adecuado) para que dicho controlador resulte
realizable (propio),
gimc (s) = g̃p−1
− (s)f (s)

38
3.4. Control por modelo interno (IMC)

El filtro generalmente se elige como,

1
f (s) = (3.18)
(λs + 1)n

donde n es el orden del filtro que hace al controlador gimc (s) propio o semipropio.

Ajustar el parámetro del filtro λ para definir la respuesta a lazo cerrado del sistema de
control. Un valor pequeño del parámetro λ nos dará un sistema de rápida respuesta.
Por el contrario, valores elevados de λ dotarán al sistema de mayor robustez contra
errores de modelado.

Si asumimos gp (s) = g̃p (s) y gimc (s) = g̃p−1


− (s)f (s) observaremos que la dinámica de la
Ec. 3.17 está dada por el parámetro del filtro pasa bajo, λ.
Es importante notar también que la factorización g̃p (s) = g̃p− (s)g̃p+ (s) sólo se realiza
para favorecer el diseño del controlador gimc (s) = g̃p−1− (s)f (s). El modelo g̃p (s) en paralelo
con la planta de la Fig. 3.4 se puede utilizar en su versión completa.

Ejemplo 3.4.1 (Sistema de segundo orden no mı́nima fase - Control IMC). En este
ejemplo mostraremos el diseño de una estrategia de control basada en IMC para la planta,

(−9s + 1)
gp (s) =
(15s + 1)(3s + 1)

la cual presenta un cero no mı́nima fase en 1/9 (respuesta inversa).


En este caso asumimos que no existe diferencia planta modelo gp (s) = g̃p (s) y una
factorización como:

1
g̃p− (s) = , g̃p+ (s) = (−9s + 1)
(15s + 1)(3s + 1)

Para que el controlador sea realizable (propio o semipropio) claramente el filtro debe
ser de segundo orden:

(15s + 1)(3s + 1)
gimc (s) = g̃p−1
− (s)f (s) =
(λs + 1)2

Con esta información podemos implementar la estructura de control de la Fig. 3.4.


La respuesta de este sistema controlado, ante un cambio unitario en la trayectoria de
referencia, se puede observar en la Fig. 3.5 para tres diferentes ajustes del parámetro del
filtro pasa bajo, λ = [2, 3, 6]. La Fig. 3.5(a) resume la evolución dinámica de las variables
controladas (VCs), para estos tres casos, y la Fig. 3.5(b) hace lo propio para las variables
manipuladas (VMs).

3.4.2. Mejoras en el rechazo de perturbaciones


Se puede obtener una mejora en el rechazo de perturbaciones si elegimos una estructura
diferente para el filtro. La factorización del modelo se realiza de la misma forma, pero en

39
3.4. Control por modelo interno (IMC)

12
1

λ=2
10 λ=3
0.5
λ=6

Entradas − VMs
Salidas − VCs

−0.5
4
Setpoint
λ=2
−1
λ=3 2
λ=6

−1.5 0
0 10 20 30 40 50 60 0 10 20 30 40 50 60
Tiempo Tiempo

(a) Variables controladas (b) Variables manipuladas

Figura 3.5: Control IMC - Diferentes λ

este caso en lugar de utilizar la estructura de filtro de la Ec. 3.18, ahora utilizamos la
estructura:
(γs + 1)
f (s) = (3.19)
(λs + 1)n
donde el parámetro γ se elije para obtener buen rendimiento ante perturbaciones.
En la práctica, γ se elije de forma tal de cancelar una constante de tiempo muy lenta
en las perturbaciones. Consideremos la Ec. 3.17 bajo la condición de modelo perfecto
gp (s) = g̃p (s)

y(s) = gp (s)gimc (s)ysp (s) + [1 − gimc (s)g̃p (s)] gd (s)d(s) (3.20)

si ahora incorporamos el controlador gimc (s) = g̃p−1 − (s)f (s) con esta nueva definición de
filtro obtenemos:
 
−1 (γs + 1) −1 (γs + 1)
y(s) = g̃p+ (s) ysp (s) + 1 − g̃p+ (s) gd (s)d(s) (3.21)
(λs + 1)n (λs + 1)n

como g̃p−1
+ (0) = 1 y f (0) = 1, mantenemos el “cero offset” en estado estacionario y γ se

puede elegir para cancelar alguna dinámica particular en gd (s).

Ejemplo 3.4.2 (Mejoras en el rechazo a perturbaciones - Control IMC). En este ejemplo


mostraremos el procedimiento de diseño de estructuras de control IMC utilizando el filtro
de la Ec. 3.19 para mejorar el rechazo de perturbaciones. Comaparado con el diseño basado
en el filtro tradicional de la Ec. 3.18.
Supondremos que no hay error planta modelo gp (s) = g̃p (s) y que las relaciones
y(s)/u(s) y y(s)/d(s) vienen dadas por:

k
gp (s) = gd (s) =
(τ s + 1)

y la factorización en este caso resulta, g̃p−1 −1


− (s) = k/(τ s + 1) y g̃p+ (s) = 1.

40
3.5. Ajuste del controlador PID mediante IMC

Entonces el controlador IMC resulta,

(τ s + 1) (γs + 1)
gimc (s) = g̃p−1
− (s)f (s) =
k (λs + 1)2

notar que el filtro posee un denominador de orden 2 para que el controlador resultante sea
propio o semipropio.
En estas condiciones la Ec. 3.21 se transforma en,
 
(γs + 1) (γs + 1)
y(s) = ysp (s) + 1 − gd (s)d(s)
(λs + 1)2 (λs + 1)2
 2 
λ
(γs + 1) (2λ − γ)s (2λ−γ) s + 1 k
= ysp (s) + d(s)
(λs + 1)2 (λs + 1)2 (τ s + 1)

por lo tanto, el parámetro del filtro debe ser ajustado como:

2τ λ − λ2
γ=
τ
si pretendemos cancelar la dinámica de la perturbación.
Supongamos ahora como ejemplo numérico que gp (s) = gd (s) = 1/(10s + 1), con lo
cual τ = 10. Si proponemos un ajuste de λ = 2, resulta γ = 3.6. En la Fig. 3.6 se puede
observar comportamiento dinámico del proceso controlado con un diseño IMC basado en
el filtro clásico y el filtro mejorado. En las Figs. 3.6(a)-3.6(b) se observa el rechazo de
perturbaciones (comportamiento regulador) y en las Figs. 3.6(c)-3.6(d) el seguimiento de
setpoint (comportamiento servo). Se puede observar claramente como el filtro mejorado
cancela la dinámica de la perturbación acelerando el rechazo de la misma. También se
observa que esta nueva estructura del filtro no introduce deficiencias en el seguimiento de
la trayectoria de setpoint, más aún permite acelerar la respuesta a costa de un pequeño
sobrevalor. Tanto el comportamiento servo como el regulador se ven mejorados en este
caso. Es importante remarcar que estas mejoras se realizan a costa de una mayor energı́a
de control, como se observa en las trayectorias de las VMs.

3.5. Ajuste del controlador PID mediante IMC


En la sección anterior presentamos una estructura transparente para el diseño de sis-
temas de control basado en IMC. Una caracterı́stica importante de este procedimiento es
que el controlador resultante posee un solo parámetro de ajuste, la constante de tiempo
del filtro λ. Si bien la estrategia IMC es clara y su implementación sencilla, la mayorı́a de
los controladores SISO instalados en la industria son del tipo PID.
Si bien ya mostramos en le Ec. 3.16 que la estructura de control IMC puede reorga-
nizarse como una estructura de control por retroalimentación unitaria de salida, en esta
sección mostraremos que, para un gran número de modelos de procesos, la ley de control
IMC es equivalente a un control clásico mediante un PID.
Es importante tener en cuenta que cuando el proceso tiene retardo, el controlador
PID ajustado mediante IMC no necesariamente dará los mismos resultados que cuando
utilizamos un controlador IMC ya que para el primero utilizaremos una aproximación del
tiempo muerto.

41
3.5. Ajuste del controlador PID mediante IMC

0.14
Filtro clásico
Setpoint 0
Filtro mejorado
0.12
Filtro clásico
Filtro mejorado
−0.2
0.1

−0.4

Entradas − VMs
0.08
Salidas − VCs

0.06 −0.6

0.04
−0.8

0.02
−1

0 5 10 15 20 25 30 0 5 10 15 20 25 30
Tiempo Tiempo

(a) VCs - Rechazo de perturbaciones (b) VMs - Rechazo de perturbaciones


1.2
9 Filtro clásico
Filtro mejorado
8
1

0.8
6
Entradas − VMs
Salidas − VCs

5
0.6

0.4
3

2
0.2
Setpoint
1
Filtro clásico
0 Filtro mejorado 0

0 5 10 15 20 25 30 0 5 10 15 20 25 30
Tiempo Tiempo

(c) VCs - Seguimiento de setpoint (d) VMs - Seguimiento de setpoint

Figura 3.6: Control IMC - Filtro mejorado

3.5.1. Procedimiento de ajuste


El siguiente procedimiento define el ajuste de controladores PID basado en IMC:
Obtener el controlador interno gimc (s) = g̃p−1 − (s)f (s), donde el filtro garantiza que
dicho controlador resulte semipropio o que tenga acción derivativa. Notar que este
requerimiento es la principal diferencia con el procedimiento de diseño IMC presen-
tado en las secciones anteriores. En este caso se permite que gimc (s) resulte impropio
de forma tal de buscar una equivalencia con el controlador PID. Para procesos ines-
tables, integradores o para buscar mejor comportamiento como regulador se puede
utilizar la estructura de filtro de la Ec. 3.19.
Obtener el control clásico por retroalimentación unitaria de salida como en la Ec. 3.16.
Reordenar la expresión para lograr la forma de un PID ideal:
τI τD s 2 + τI s + 1
 
gc (s) = kC
τI s

Valores iniciales de λ de 1/3 o 1/2 la constante de tiempo dominante del proceso son
buenos ajustes para comenzar a evaluar la robustez.

42
3.5. Ajuste del controlador PID mediante IMC

3.5.2. Ajuste para procesos sin tiempos muertos


Comencemos por aplicar el procedimiento mencionado anteriormente a un proceso de
primer orden g̃p (s) = k/(τ s + 1). En este caso resulta que g̃p (s) = g̃p−1 −1
− (s) y g̃p+ (s) = 1.

Si con estos datos contruimos el contrlador interno, tenemos:

τs + 1 1
gimc (s) = g̃p−1
− (s)f (s) =
k λs + 1

y si buscamos la expresión del controlador clásico,

gimc (s) τs + 1
gc (s) = =
1 − gimc (s)g̃p (s) kλs

si ahora a este controlador lo reordenamos como un PID, tenemos


 
τ 1
gc (s) = 1+
kλ τs

que es una estructura de controlador PI con:


τ
kC = , τI = τ

Con este ajuste basado en IMC se puede ver como la ley de control PI sólo depende
de un solo parámetro. En efecto, la constante de tiempo del filtro λ permite modificar la
ganancia del controlador PI de forma inversamente proporcional. Rápida respuesta a lazo
cerrado, λ pequeño, implica valores elevados de ganancia y viceversa.
Analicemos ahora el ajuste cuando contamos con un modelo de segundo orden g̃p (s) =
k/[(τ1 s + 1)(τ2 s + 1)]. Expresamos el controlador interno IMC de forma tal que resulte
impropio:
(τ1 s + 1)(τ2 s + 1) 1
gimc (s) =
k (λs + 1)
buscamos ahora la expresión del controlador clásico,

gimc (s) τ1 τ2 s2 + (τ1 + τ2 )s + 1


gc (s) = =
1 − gimc (s)g̃p (s) kλs

si reordenamos este controlador para dejar la estructura PID explı́cita,


 
(τ1 + τ2 ) 1 1 τ1 τ2
gc (s) = 1+ + s
kλ (τ1 + τ2 ) s (τ1 + τ2 )

en este caso los parámetros del PID resultan:

τ1 + τ2 τ1 τ2
kC = , τI = τ1 + τ2 , τD =
kλ τ1 + τ2

Es importante notar que se puede utilizar el mismo procedimiento definido en la Sec-


ción 3.4.2, para seleccionar un ajuste PID que nos garantice un buen rendimiento dinámico
del controlador como regulador.

43
3.5. Ajuste del controlador PID mediante IMC

3.5.3. Ajuste para procesos con tiempos muertos


Para obtener una estructura PID equivalente en el caso de procesos con tiempo muerto,
tenemos que tomar algún tipo de aproximación del retardo. En este caso, utilizaremos el
modelado tipo Padé de primer orden. También podemos ajustar el PID sin incorporar
la información del retardo en el modelado (Padé de orden cero), pero debemos tener en
cuenta ciertas limitaciones en la constante de tiempo del filtro, λ.
Mostraremos el procedimiento para el caso de un sistema de primer orden con retardo
y su aproximación Padé de primer orden,
k k (−0.5θs + 1)
g̃p (s) = e−θs ≈
(τ s + 1) (τ s + 1) (0.5θs + 1)
si factorizamos esta aproximación tenemos,
k
g̃p−1
− (s) = , g̃p−1
+ (s) = −0.5θs + 1
(τ s + 1)(0.5θs + 1)
con lo cual podemos obtener el controlador IMC,
(τ s + 1)(0.5θs + 1) 1
gimc (s) =
k (λs + 1)
y su equivalente PID como,
1 (τ s + 1)(0.5θs + 1)
gc (s) =
k (λ + 0.5θ)s
 
(τ + 0.5θ) 1 1 0.5τ θ
= 1+ + s
k(λ + 0.5θ) (τ + 0.5θ) s (τ + 0.5θ)
y en este caso los parámetros del PID equivalente se identifican como:
(τ + 0.5θ) 0.5τ θ
kC = , τI = τ + 0.5θ, τD =
k(λ + 0.5θ) (τ + 0.5θ)
Tanto la robustez como el rendimiento se pueden analizar en función del error planta-
modelo incorporado en el diseño del controlador, como sugiere Morari and Zafiriou (1989).
De este análisis se desprende que el parámetro del filtro (λ) no puede elegirse libremente
ante incertidumbre de modelado. Si en el diseño de dicho controlador se utiliza un Padé
de primer orden para aproximar el comportamiento de un retardo, entonces el parámetro
del filtro está acotado por λ > θ/3 y es el lı́mite para garantizar la estabilidad del lazo
cerrado. Por otro lado, si se utiliza una aproximación Padé de orden cero, esta cota se
convierte en λ > 1.7θ.
En Morari and Zafiriou (1989) y Bequette (2002) se puede encontrar una completa
tabla de ajuste de parámetros de controladores PID para diferentes tipos de modelos
de procesos (con/sin retardos, primer/segundo orden y estables/inestables). A modo de
conclusión, es importante tener en cuenta que el parámetro ajustable del filtro (λ) define
aproximadamente la constante de tiempo a lazo cerrado y juega un papel preponderante
a la hora de definir un compromiso entre rendimiento y robustez.

Ejemplo 3.5.1 (Ajuste PID basado en IMC - Padé de orden uno y cero). En este caso
mostraremos con un ejemplo numérico el procedimiento de ajuste de controladores clásicos

44
3.6. Evaluando el rendimiento a lazo cerrado

PID basado en la estructura IMC mencionada en secciones anteriores. En este caso se


pretende controlar el siguiente proceso:
1
gp (s) = e−10s
(5s + 1)
donde k = 1, τ = 5 y θ = 10.
En este ejemplo utilizaremos dos aproximaciones Padé de diferente orden para el ajuste:
1. Orden cero: e−10s ≈ 1, el cual genera un controlador PI con el siguiente ajuste,
τ
kC = , τI = τ.

Si queremos garantizar estabilidad, debemos considerar la cota λ > 1.7θ. Seleccio-
nando entonces λ = 2θ, generamos el ajuste: kC = 0.25 y τI = 5.
2. Primer orden: e−10s = (−0.5θs + 1)/(0.5θs + 1), el cual genera un controlador PID
con el siguiente ajuste,
(τ + 0.5θ) 0.5τ θ
kC = , τI = τ + 0.5θ, τD = .
k(λ + 0.5θ) (τ + 0.5θ)
En este caso, la cota que asegura estabilidad viene dada por λ > θ/3. Elegimos
entonces λ = θ y generamos el ajuste: kC = 0.67, τI = 10 y τD = 2.5.
La respuesta dinámica de ambos controladores clásicos (PI y PID) se puede observar en
la Fig. 3.7. En la Fig. 3.7(a) se presentan las respuestas de las VCs en cada caso y en la
Fig. 3.7(b) se resumen las evoluciones de las VMs. Se puede apreciar que el ajuste basado
en una aproximación Padé de orden cero genera un control PI con un comportamiento
suave. Por el contrario, el ajuste basado en la aproximación Padé de orden uno permite
acelerar las respuestas con un comportamiento más agresivo. Esto se debe principalmente
al valor que toma la constante del filtro en cada caso: λ = 2θ = 20 para el PI y λ = θ = 10
para el PID. Es importante recordar que la dinámica a lazo cerrado prácticamente la define
el parámetro del filtro. También es importante recordar que en estos casos dicha constante
no puede elegirse libremente.
La conclusión es la siguiente: si el modelo utilizado en el diseño del controlador IMC (o
ajuste PID) posee una fuerte incertidumbre de modelado, i.e. Padé orden cero, la dinámica
a lazo cerrado no puede hacerse arbitrariamente rápida (λ > 1.7θ). Esto implica que
perdemos rendimiento del sistema de control, pero ganamos en caracterı́sticas de robustez.
Por el contrario, un modelo aproximado pero con menos incertidumbre en el retardo, i.e.
Padé de orden uno, nos permite acelerar la respuesta (λ > θ/3) sin perder robustez.

3.6. Evaluando el rendimiento a lazo cerrado


Si bien la estabilidad a lazo cerrado es una cuestión importante, el objetivo real del
control es mejorar el rendimiento, es decir, hacer que la variable controlada se comporte de
la manera deseada. La posibilidad de inducir inestabilidad debido a la retroalimentación es
una de las principales desventajas, la cual debe evaluarse en un compromiso con la mejora
del rendimiento. El objetivo principal de esta sección es discutir los diferentes caminos para
evaluar el rendimiento y las limitaciones existentes en un sistema de control (Skogestad
and Postlethwaite, 2005).

45
3.6. Evaluando el rendimiento a lazo cerrado

1.2 1.4

1 1.2

1
0.8

Entradas − VMs
Salidas − VCs

0.8
0.6

0.6
0.4

0.4
0.2
Setpoint
Ajuste PI 0.2 Ajuste PI
0 Ajuste PID Ajuste PID
0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100
Tiempo Tiempo

(a) Variables controladas (VCs) (b) Variables manipuladas (VMs)

Figura 3.7: Ajuste PID basado en IMC - Diferentes aproximaciones Padé

3.6.1. Rendimiento en el dominio temporal


Un análisis de la respuesta al escalón nos permite evaluar el rendimiento del sistema
de control. Los ingenieros de procesos generalmente evalúan las siguientes caracterı́sticas
(recordemos la Fig. 2.5):

Tiempo de subida (rise time, tr ): el tiempo que le toma a la salida alcanzar el valor
final. Generalmente se desea que tr sea pequeño.

Tiempo de estabilización (settling time, ts ): el tiempo requerido por la salida en


permanecer dentro del ±5 % de su valor final. También se requiere que este tiempo
sea pequeño.

Sobre valor (overshoot): el valor del primer pico dividido por el valor final de la
salida. El valor deseado es de 20 % o menos.

Relación de decaimiento (decay ratio): es la relación entre el valor del segundo pico
respecto del primero. Valores deseables de esta tasa de decaimiento son 0.3 o menores.

Error de estado estacionario (steady-state offset): es la diferencia existente entre el


valor final de la salida controlada y el valor final deseado. Generalmente se requiere
que este error sea pequeño.

Exceso de variación (excess variation): es la variación total (VT) dividido el cambio


final en estado estacionario. Es deseable que el exceso de variación sea un valor
cercano a uno. Notar que la VT se calcula sumando el valor del primer pico, el valor
de estado estacionario y todas las diferencias entre los picos intermedios.

El tiempo de subida y el tiempo de estabilización son cuantificaciones de la “velocidad


de la respuesta”. Mientras que el sobre valor, la relación de decaimiento, el offset y el
exceso de variación son mediciones de la “calidad de la respuesta”.
Los ı́ndices anteriores están en función de la salida controlada (VC). También podrı́amos
considerar la evolución de la variable manipulada (VM), la cual se desea que tenga ex-
cursiones lo más suaves y pequeñas posibles. Si existen perturbaciones importantes en

46
3.6. Evaluando el rendimiento a lazo cerrado

el proceso, entonces el sistema de control también deberı́a ser evaluado en su comporta-


miento como regulador. Finalmente, suele ser de mucha utilidad investigar vı́a simulación
dinámica la respuesta del sistema de control cuando los parámetros nominales del proceso
cambian. Esto nos otorgará información de como se comporta el siste a ante incertidum-
bres.
Otra forma de cuantificar el rendimiento de los sistemas de control, en el dominio
temporal, es utilizar algún tipo de norma del error de seguimiento, e(t) = ysp (t) − y(t).
Por ejemplo, podrı́amos utilizar la integral del error cuadrático (ISE, de sus siglas en
Inglés), o su raı́z cuadrada que se es la norma 2 de la señal de error,
sZ

||e(t)||2 = e2 (t)dt
0

Notar que en este caso varios objetivos relacionados con la velocidad y calidad de la
respuesta están incluidos en este ı́ndice escalar. En la mayorı́a de los casos, minimizar esta
norma genera una razonable solución de compromiso entre todos los ı́tems listados más
arriba. También se puede incluir en dicha norma información relacionada con la variable
manipulada (similar al control óptimo cuadrático lineal).

3.6.2. Rendimiento en el dominio frecuencial


Se puede utilizar la respuesta en frecuencia de diferentes funciones de transferencia
(L(jw), S(jw), T (jw)) para caracterizar el rendimiento de los sistemas de control.
Una de las ventajas del análisis en el dominio frecuencial, comparado con la prueba
escalón, es que aquı́ podemos considerar un espectro más amplio de señales (sinusoides de
diferentes frecuencias). Esto permite una fácil caracterización de los sistemas, en particular
en la zona de la frecuencia de cruce (ancho de banda).
Recordando la expresión a lazo cerrado de la Ec. 3.5, vemos que la estabilidad viene
dada por el denominador 1 + L(s), donde L(s) = gp (s)gc (s) es la función de transferencia
de lazo directo. La ecuación caracterı́stica es,

1 + L(s) = 0 o también L(s) = −1

Como L(jw) es una función racional compleja, la condición anterior se traduce en las
siguientes dos condiciones,

|L(s)| = 1 y ∠L(s) = ±180o

Los valores de s que cumplen con estas dos condiciones de magnitud y ángulo son las
raı́ces de la ecuación caracterı́sticas o los polos a lazo cerrado (Ogata, 2010).

Márgenes de ganancia y fase


El margen de ganancia (MG) se define como:

MG = 1/|L(jw180o )|

donde la frecuencia de cruce de fase, w180o , es la frecuencia a la que se cumple:

∠L(jw180o ) = −180o

47
3.6. Evaluando el rendimiento a lazo cerrado

Magnitude (dB)

0
−3 wBT
wB

wC
L
S
90
T
Phase (deg)

−90
w180o
−180

Frequency (rad/s)

Figura 3.8: Diagra de Bode de magnitud y fase

en un gráfico como la Fig. 3.8 donde la magnitud |L(jw)| se representa logarı́tmicamente


(dB), el MG es la lı́nea vertical desde la magnitud unitaria (0 dB) hasta el punto donde
|L(jw180o )|.
El MG es el factor por el cual se puede aumentar la ganancia de lazo directo, |L(jw)|,
antes de que el sistema a lazo cerrado se vuelva inestable. El MG, por lo tanto, nos permite
contrarrestar algún tipo de incertidumbre en la ganancia de estado estacionario (error).
Generalmente se pide que MG > 2.
El margen de fase (MF) se define como:

MF = ∠L(jwC ) + 180o

donde la frecuencia de cruce de ganancia, wC , es la frecuencia a la cual la ganancia |L(jw)|


cruza 1 desde arriba,
|L(jwC )| = 1

El MF nos brinda información de cuanta fase negativa podemos agregar a L(s) a la


frecuencia wC para llegar a −180o , que es la fase que representa la inestabilidad a lazo
cerrado. Generalmente es deseable un MF de 30o o más. El MF es una cota de seguridad
respecto a incertidumbre en el retardo. El sistema se volverá inestable si agregamos un
retardo de:
θmax = M F/wC

es importante notar que disminuyendo el valor de wC (menor ancho de banda a lazo cerra-
do, respuestas más lentas), significa que podemos tolerar mayores errores/incertidumbres
en el retardo, i.e. más robustez.

48
3.6. Evaluando el rendimiento a lazo cerrado

Criterio del pico máximo


Los picos máximos de las funciones de sensibilidad y sensibilidad complementaria están
dados por,

MS = máx |S(jw)| = ||S(jw)||∞ , MT = máx |T (jw)| = ||T (jw)||∞ (3.22)


w w

donde || · ||∞ es la norma infinito.


Generalmente, se requiere que MS sea menor que 6 dB y que MT menor que 2 dB. Un
valor elevado en estos picos, digamos mayores a 12 dB, indica tanto un pobre rendimiento
como una pobre robustez. Debido a que S + T = 1, los valores de MS y MT están próximos
cuando los picos son elevados.
Retomando la Ec. 3.5, donde mostramos que a lazo cerrado tenı́amos que:

y(s) = T (s)ysp (s) + S(s)gd (s)d(s)

analizando la Fig. 3.8 y recordando que todos los sistemas reales son estrictamente pro-
pios, entonces podemos concluir que: 1- a bajas frecuencias, en particular s = 0, tenemos
|S(0)| = 0 para controladores con acción integral. Lo cual garantiza el rechazo perfecto de
perturbaciones y seguimiento de setpoint, |T (0)| = 1, 2- debido a que los sistemas reales
son estrictamente propios, es decir |L(jw)| → 0, |S(jw)| → 1 cuando w → ∞, vemos que
en esta zona de frecuencias el control no es efectivo, 3- en la zona de frecuencias interme-
dias es inevitable tener un pico de |S(jw)| (mayor a 1), lo cual es un indicativo de una
degradación del rendimiento del controlador, y el pico MS es un indicativo del peor caso
de dicha condición.
En Skogestad and Postlethwaite (2005) se proponen algunas desigualdades que vincu-
lan los márgenes de fase y de ganancia con el pico máximo de la función de sensibilidad,
MS 1
MG ≥ MF ≥ [rad]
MS − 1 MS
con lo cual MS = 2 garantiza MG ≥ 2 y MF ≥ 29o
De igual forma podemos utilizar la función de sensibilidad complementaria,
1 1
MG ≥ 1 + MF ≥ [rad]
MT MT
que si MT = 2 garantiza MG ≥ 1.5 y MF ≥ 29o .

Ancho de banda y frecuencia de cruce


El concepto de ancho de banda es muy importante en la comprensión de los benefi-
cios y compromisos involucrados en la implementación de una estrategia de control por
retroalimentación. En el análisis del rendimiento, también debemos considerar la rapidez
de la respuesta y esto nos lleva a considerar el ancho de banda del sistema controlado. En
general, un ancho de banda elevado corresponde a un tiempo de respuesta rápido, ya que
señales de alta frecuencia pueden pasar más fácilmente hacia la salida. Un sistema con un
ancho de banda importante también indica que será muy sensible al ruido y a variaciones
de los parámetros. Por otro lado, si el ancho de banda es pequeño, las respuestas serán
generalmente lentas y el sistema a lazo cerrado tendrá mejores caracterı́sticas de robustez.
El ancho de banda puede definirse como el rango de frecuencia, [w1 , w2 ], en el cual las
acciones de control son efectivas. En la mayorı́a de los casos se requiere un control riguroso
en estado estacionario, con lo cual w1 = 0 y por ello llamamos ancho de banda a w2 = wB .

49
3.7. Limitaciones en el rendimiento

La palabra “efectivo” puede interpretarse de diferentes formas y por ello existen di-
ferentes definiciones de ancho de banda. La definición que nosotros utilizamos es que el
control es “efectivo” si obtenemos algún “beneficio” en términos de rendimiento. Para
el caso de comportamiento como servo, el error de seguimiento del setpoint es e(s) =
ysp (s) − y(s) = S(s)ysp (s). Por lo tanto, el control es efectivo (en términos de rendimiento)
en el rango de frecuencias donde S(s) sea lo suficientemente baja en ganancia, i.e. dis-
minuya e(s). Podemos definir entonces esa cota de ganancia como 0.707 y obtenemos la
siguiente definición:

Definición 3.6.1 (Ancho de banda).


p El ancho de banda (a lazo cerrado), wB , es la fre-
cuencia donde |S(jw)| cruza 1/ (2) (≈ −3 dB) desde abajo.

De forma similar podemos pensar que el control es efectivo cuando produce un efecto
considerable sobre la VC. Entonces, recordando que y(s) = T (s)ysp (s), podemos asumir
que el control es efectivo en la zona de frecuencias donde la ganancia de T (s) sea lo
suficientemente grande, por ejemplo mayor que 0.707. Con lo cual, tenemos una definición
alternativa, “el ancho de banda en ptérminos de T (s)”, llamado wBT : “es la frecuencia más
grande en la que |T (jw)| cruza 1/ (2) (≈ −3 dB) desde arriba”. En la mayorı́a de los
casos las dos definiciones proveen valores similares del ancho de banda, ver Fig. 3.8.
La frecuencia de cruce de ganancia (donde |L(jw)| cruza 1 desde arriba), wC , en oca-
siones también se utiliza para definir el ancho de banda. Tiene la ventaja que se puede
calcular fácilmente y por lo general genera valores en el rango [wB , wBT ]. Por lo general,
se utilizan como ancho de banda las frecuencias wB y wC , ya que wBT puede resultar un
poco engañosa.

3.7. Limitaciones en el rendimiento


En esta sección discutiremos las limitaciones fundamentales en el rendimiento de los
sistemas SISO. Se resumirán en forma de procedimientos para analizar la controlabili-
dad entrada-salida. Cuando hablamos de controlabilidad entrada-salida de una planta,
hablamos de la capacidad de alcanzar un rendimiento de control aceptable. Un adecuado
escalado (normalización) de las variables de entrada, salida y de perturbación es esencial
antes de realizar el análisis (Skogestad and Postlethwaite, 2005).

3.7.1. Controlabilidad entrada-salida


En los cursos universitarios sobre control, generalmente se enfatizan los métodos para
el diseño del controlador y el análisis de estabilidad. Sin embargo, en la práctica, las
siguientes tres preguntas son a menudo más importantes:

I- ¿Qué tan bien se puede controlar la planta?.


Antes de iniciar cualquier diseño del controlador, primero se debe determinar qué
tan fácil es en realidad controlar la planta. ¿Es un problema de control complejo?,
¿Existe un controlador que cumpla con los objetivos de rendimiento requeridos?

II- ¿Qué estructura de control se debe usar?.


Necesitamos definir las variables que debemos medir, las variables que debemos
manipular y como deben ser apareados (vinculados) estos conjuntos. Algunos libros
de textos sugieren las siguientes reglas para dar respuesta a estos interrogantes,

• Controlar las salidas que no son autorreguladas.

50
3.7. Limitaciones en el rendimiento

• Controlar las salidas que tienen caracterı́sticas dinámicas y estáticas favorables,


i.e para cada salida, debe existir una entrada que tenga un efecto significativo,
directo y rápido sobre ella.
• Seleccionar entradas que tengan un efecto considerable sobre la salidas.
• Seleccionar entradas que rápidamente tengan efecto sobre las salidas.

Estas reglas parecen razonables, pero ¿Cómo cuantificar los términos “autorregula-
do”, “considerable”, “rápido” y “directo”?.

III- ¿Cómo se puede cambiar el proceso para mejorar el control?.


Por ejemplo, para reducir los efectos de una perturbación, uno puede considerar cam-
biar el tamaño de un tanque buffer. En otras situaciones, la velocidad de respuesta
de un dispositivo de medición podrı́a ser un factor importante para lograr un control
aceptable.

Las tres preguntas anteriores están relacionadas con las caracterı́sticas de control inheren-
tes al proceso. Introduciremos el término controlabilidad de entrada-salida para capturar
estas caracterı́sticas como se describe a continuación,

Definición 3.7.1 (Controlabilidad entrada-salida). Es la habilidad para alcanzar un acep-


table rendimiento de control. Esto es, mantener las salidas y(t) dentro de los lı́mites y
desplazamientos predefinidos de su referencia (ysp (t)), a pesar de las variaciones descono-
cidas pero acotadas, como las perturbaciones (d(t)) y los cambios de la planta, utilizando
las entradas disponibles (u(t)) y las mediciones disponibles (ym (t) y/o dm (t)).

En resumen, una planta es controlable si existe un controlador que brinda un ren-


dimiento aceptable para todas las variaciones esperadas de la planta. Por lo tanto, la
controlabilidad es independiente del controlador y es una propiedad de la planta o el pro-
ceso por sı́ solo. Esta caracterı́stica sólo puede afectarse mediante cambios en el diseño de
la planta. Estos pueden incluir:

Cambios en los dispositivos, por ejemplo dimensiones, tipos, etc.

Relocalizar sensores y/o actuadores.

Incluir nuevos equipos para amortiguar el efecto de las perturbaciones.

Adicionar nuevos sensores y/o actuadores.

Cambiar los objetivos de control.

Cambiar la estructura de control de bajo nivel existente.

3.7.2. Análisis de controlabilidad entrada-salida


El análisis de controlabilidad entrada-salida se aplica a una planta para definir que
rendimiento de control se puede esperar de ella.
Sorprendentemente, dada la gran cantidad de métodos matemáticos disponibles para
el diseño del sistema de control, los métodos para el análisis de controlabilidad son gene-
ralmente cualitativos. En la mayorı́a de los casos, se utiliza una metodologı́a basada en
simulación, i.e. el rendimiento es evaluado en función de simulaciones exhaustivas. Por
otro lado, esto requiere el diseño de un controlador especı́fico y la elección de valores par-
ticulares de cambios de setpoint y de perturbaciones. Por lo tanto, con este método, uno

51
3.7. Limitaciones en el rendimiento

nunca puede saber con certeza si el resultado observable es una propiedad fundamental del
proceso o si depende del controlador y del escenario propuesto (setpoint y perturbaciones).
Una estrategia rigurosa de análisis de controlabilidad serı́a formular matemáticamente
los objetivos de control, la clase de perturbaciones, la incertidumbre de modelado, etc.,
y luego sintetizar los controladores para definir si los objetivos se pueden cumplir. Esta
representación matemática del problema involucra una formulación del tipo superestruc-
tura, lo cual puede resultar intratable desde el punto de vista dimensional como desde
el punto de vista de la complejidad de programación del problema de optimización (ti-
pos de “solvers” disponibles) resultante. Para más detalles ver Capı́tulo 5. Resulta más
eficaz contar con algunas herramientas simples que se puedan usar para tener una idea
aproximada de lo fácil/difı́cil que es controlar la planta, es decir, determinar si una planta
es controlable o no, sin realizar un diseño detallado del controlador. El objetivo de esta
sección es derivar tales herramientas basadas en modelos apropiadamente escalos de gp (s)
y gd (s).

3.7.3. Escalado y rendimiento


La definición de controlabilidad anterior no especifica los lı́mites permitidos de mo-
vimientos o las variaciones esperadas de las perturbaciones, es decir, no se incluyó una
definición del rendimiento deseado. Asumiremos que los modelos fueron escalados como
se detalló en el Capı́tulo 1, por lo tanto los requerimientos para un rendimiento aceptable
son:

Mantener la salida y(t) en el rango ysp (t) = ±1 para toda perturbación d(t) entre
[−1, 1] o toda referencia entre [−Ysp , Ysp ], utilizando una entrada u(t) en el rango
[−1, 1].

En el dominio frecuencial podemos definir que el requisito de rendimiento es man-


tener el error de seguimiento |e(jw)| ≤ 1, para alguna perturbación |d(jw)| ≤ 1 o
alguna referencia |ysp (jw)| ≤ Ysp (jw), utilizando una entrada tal que |u(jw)| ≤ 1.

Si denominamos a ysp = Ysp ỹsp , podemos reescribir,

e = ysp − y = Ysp ỹsp − gp u − gd d

donde Ysp es la magnitud de la referencia y |ỹsp (jw)| ≤ 1 y |d(jw)| ≤ 1 son señales desco-
nocidas. Esta nueva representación nos permite unificar el tratamiento de perturbaciones
y cambios de setpoints. Particularmente, derivaremos resultados para perturbaciones, los
cuales pueden aplicarse directamente a cambios de setpoints reemplazando −gd por Ysp .

3.7.4. Observaciones sobre el término controlabilidad


La definición anterior de controlabilidad (entrada-salida) está en sintonı́a con la sensa-
ción intuitiva de la mayorı́a de los ingenieros sobre lo que significa el término, y también
fue cómo el término se usó históricamente en la literatura de control.
En los años 40, Ziegler y Nichols definieron la controlabilidad como la habilidad del
proceso para alcanzar y mantener el valor de equilibrio deseado. En los años 60, el término
controlabilidad se convirtió en sinónimo del concepto particular de “controlabilidad del
estado” introducido por Kalman. La controlabilidad del estado es la capacidad de llevar
el sistema de un estado inicial a otro estado final en un tiempo finito. El concepto de con-
trolabilidad del estado es importante para las realizaciones y los cálculos numéricos, pero

52
3.7. Limitaciones en el rendimiento

siempre que sepamos que todos los modos inestables son controlables y observables, gene-
ralmente tiene poca importancia práctica. Por ejemplo, en los años 70, Rosenbrock señala
que la mayorı́a de las plantas industriales se controlan de manera satisfactoria, aunque
no sean estado-controlables. También hay muchos sistemas que son estado-controlables,
pero que no son controlables entrada-salida (ejemplo 4.5 en Skogestad and Postlethwaite
(2005)). La propiedad de controlabilidad del estado puede no implicar que el sistema sea
controlable en un sentido práctico. Esto se debe a que la capacidad de control del estado
solo se refiere al valor de los estados en valores discretos de tiempo, mientras que en la
mayorı́a de los casos prácticos queremos que las salidas permanezcan cerca de algún valor
deseado (o trayectoria) para todos los valores de tiempo y sin utilizar señales de control
inapropiadas. En los años 80, Morari introduce el concepto de “Resiliencia” para evitar
confunsión entre “controlabilidad entrada-salida” y “controlabilidad del estado”. El con-
cepto de resiliencia describe la capacidad de la planta de moverse rápida y suavemente
de una condición operativa a otra (incluido el arranque y el apagado) y de manejar efi-
cazmente las perturbaciones. Resiliencia incluye conceptos provenientes de la ingenierı́a de
procesos como “flexibilidad”, “operabilidad” y “controlabilidad entrada-salida”.

3.7.5. Control perfecto e inversión de la planta


Un buen camino para obtener información de las limitaciones en rendimiento inherentes
a la planta en sı́ misma, es evaluar la magnitud de las entradas para obtener control
perfecto. Consideremos el modelo de la planta,

y(s) = gp (s)u(s) + gd (s)d(s)

entonces “control perfecto” (que no puede obtenerse en la práctica) se produce cuando


y(s) = ysp (s) en todo momento. Por lo tanto las correspondientes entradas de la planta
deben cumplir con,
u(s) = gp−1 (s)ysp (s) − gp−1 (s)gd (s)d(s) (3.23)
esta relación representa el “controlador en avance perfecto” (asumiendo que d(s) es medi-
ble).
Recordando la estructura del sistema de control en la Fig. 3.1, que u(s) = gc (s) (ysp (s) − y(s))
y considerando la Ec. 3.5, podemos expresar que:

u(s) = gp−1 (s)T (s)ysp (s) − gp−1 (s)T (s)gd (s)d(s) (3.24)

donde T (s) es la función de sensibilidad complementaria.


Si recordamos lo analizado en la Sección 3.6.2 (Fig. 3.8), tenemos que en el rango
frecuencial donde el control es efectivo es T (s) ≈ 1, por lo tanto, la señal de control
generada por la Ec. 3.24 es la misma señal de control perfecto que la Ec. 3.23. Es decir,
una retroalimentación con altos valores de ganancia genera una inversa de proceso aún
cuando el controlador gc (s) sea muy simple.
Por lo tanto, una lección importante es que el control perfecto requiere que el contro-
lador de alguna manera genere un inverso de gp (s). De todo esto podemos decir que el
control perfecto no se puede obtener si:

gp (s) contiene ceros en el semiplano derecho (gp−1 (s) es inestable)

gp (s) contiene retardo (gp−1 (s) contiene predicción)

gp (s) posee más polos que ceros (gp−1 (s) no es realizable, impropia)

53
3.7. Limitaciones en el rendimiento

Además, la ley de control perfecto en avance tampoco se puede obtener si gp (s) presenta
incertidumbre ya que gp−1 (s) no puede conocer con exactitud.
La señal de entrada de la Ec. 3.23 no debe exceder el valor máximo fı́sicamente per-
mitido. Por lo tanto, el control perfecto no puede obtenerse si,
|gp−1 (s)gd (s)| es elevado

|gp−1 (s)Ysp | es elevado


donde “elevado”, de acuerdo con nuestro criterio de escalado, significa mayor que 1.
Problemas adicionales en el control perfecto vienen dados por: – mediciones ruidosas
e inciertas, – gp (s) es inestable y – |gd (s)| es elevado.

3.7.6. Integrales de sensibilidad


Como definimos en secciones anteriores T (s) + S(s) = 1 y como vimos en la Fig. 3.8
los diferentes requisitos deseables sobre cada una de las funciones de sensibilidad se dan
sobre rangos frecuenciales diferentes.
En Skogestad and Postlethwaite (2005) se presentan los teoremas de la integral de
sensibilidad de Bode y la integral de la sensibilidad ponderada. Si bien aquı́ no abordaremos
estas definiciones en detalle, los dos teoremas tratan de explicar los efectos del ancho de
banda sobre la función de sensibilidad, S(s). En particular, se muestra que el pico de
dicha función es inevitable en los sistemas reales y que los intentos por disminuir el valor
de dicho pico se ve reflejado en una disminución necesaria del ancho de banda y viceversa
(efecto cama de agua o frazada corta).

Ejemplo 3.7.1 (Ganancia del controlador vs función de sensibilidad). En este ejemplo


se muestra el efecto de aumentar la ganancia de un controlador integral cuando se trata
de controlar un sistema con respuesta inversa.
Supongamos que la función de transferencia de lazo directo es,
k2−s
L(s) = gc (s)gp (s) =
s2+s
y que los potenciales valores de la ganancia del controlador son k = [0.1, 0.5, 1, 2].
En la Fig. 3.9 se puede observar la evolución de |S(jw)| para cada valor de ganancia.
Claramente se puede apreciar como al aumentar la ganancia, aumentamos el ancho de ban-
da, wB , pero también aumentamos el valor del pico de la función de sensibilidad. Cuando
k = 2, estamos en el caso lı́mite donde el sistema a lazo cerrado se vuelve inestable.

3.7.7. Restricciones de entrada


En todo sistema fı́sico real existen limitaciones en los valores que las variables ma-
nipuladas pueden tomar. Si asumimos los criterios de escaldo presentados en Capı́tulo 1,
entonces en todo momento debemos cumplir con |u(t)| ≤ 1. La pregunta aquı́ es la siguien-
te ¿Podemos rechazar las perturbaciones esperadas y seguir correctamente los cambios de
setpoint mientras aseguramos |u(t)| ≤ 1?
Como mencionamos en secciones anteriores, asumiremos que: |d(jw)| ≤ 1 y |ỹsp (jw)| ≤
1. El peor caso de la perturbación es |d(jw)| = 1 y el peor caso para el setpoint es
ysp = Ysp ỹsp con |ỹsp (jw)| = 1.

54
3.7. Limitaciones en el rendimiento

20

10

Magnitude (dB) −10

−20

−30

−40
k=0.1
−50 k=0.5
k=1
−60 k=2

−70 −3 −2 −1 0 1 2
10 10 10 10 10 10
Frequency (rad/s)

Figura 3.9: Aumentando la ganancia del controlador - Sistema con respuesta inversa

Entradas para control perfecto


Recordemos la expresión de la entrada de la Ec. 3.23. Inicialmente consideremos el caso
de rechazo de perturbaciones (regulador) con ysp = 0 y |d(jw)| = 1, entonces el requisito
de |u(jw)| < 1 es equivalente a

|gp−1 (jw)gd (jw)| < 1, ∀w (3.25)

en otras palabras, para control perfecto y a su vez respetar los lı́mites de la variable de
entrada debe cumplirse que |gp (jw)| > |gd (jw)| para todo el rango frecuencial de interés.
Si ahora consideramos el caso de seguimiento del setpoint (servo), entonces d = 0 y
consideremos el peor caso de trayectoria de referencia, ysp = Ysp , con |ỹsp (jw)| = 1. Para
mantener la entradas dentro de sus lı́mites de restricción, debe cumplirse que

|gp−1 (jw)Ysp | < 1, ∀w (3.26)

en otras palabras, debe cumplirse que |gp (jw)| > Ysp para todo el rango frecuencial de
interés.

Entradas para control no perfecto


En general el control perfecto (e = 0) no es necesario y a veces no realizable. Entonces
hablaremos de control no perfecto o “aceptable” (|e(jw)| < 1). Recordemos que y(s) =
gp (s)u(s) + gd (s)d(s) y que e(s) = ysp (s) − y(s) = Ysp ỹsp − y(s). Si consideramos el caso
de rechazo de perturbaciones, tenemos que

|gp (jw)| > |gd (jw)| − 1, ∀w donde |gd (jw)| > 1 (3.27)

De forma similar para tener un control aceptable en el seguimiento de la referencia


tenemos,
|gp (jw)| > |Ysp | − 1, ∀w donde |Ysp | > 1 (3.28)

55
3.7. Limitaciones en el rendimiento

Los requisitos en Ecs. 3.27-3.28 son restricciones que se imponen en el diseño de la


planta para evitar saturaciones de entradas. Si estas restricciones son violadas en algunas
frecuencias el rendimiento no será satisfactorio, |e(jw)| > 1, para los peores casos de
perturbaciones o setpoints.

3.7.8. Limitaciones por incertidumbre


La presencia de incertidumbre, como ya vimos, requiere la utilización de control por
retroalimentación en lugar de sólo control en avance.

Control en avance
Considere la planta nominal defina como y(s) = gp (s)u(s)+gd (s)d(s), asuma que gp (s)
es mı́nima fase y estable. Considere también que no hay problemas con la saturación de
las entradas.
Recordemos la ley de control en avance para control perfecto (e(s) = 0) de la Ec. 3.23.
Ahora apliquemos esta ley a la planta actual, definida como:
y ∗ (s) = gp∗ (s)u(s) + gd∗ (s)d(s)
y analicemos la expresión del error,
gp∗ (s) gp∗ (s)/gd∗ (s) ∗
   
∗ ∗
e (s) = ysp (s) − y (s) = 1 − ysp (s) − 1 − g (s)d(s)
gp (s) gp (s)/gd (s) d
donde
gp∗ (s)
 
1− : es el error relativo en gp (s)
gp (s)
gp∗ (s)/gd∗ (s)
 
1− : es el error relativo en gp (s)/gd (s)
gp (s)/gd (s)
Por lo tanto, podemos apreciar que el error de modelado se propaga directamente al
error de seguimiento. Si queremos garantizar |e∗ (jw)| < 1 para el peor caso |d(jw)| = 1,
entonces deberı́a cumplirse que |gp (jw)/gd (jw)| < 1/|gd∗ (jw)|.

Control por retroalimentación


Recordando la Ec. 3.5, donde un proceso y(s) = gp (s)u(s) + gd (s)d(s) se controla con
un controlador gc (s) por retroalimentación de salida unitaria, tenemos que el error de
seguimiento se puede expresar como,
e(s) = ysp (s) − y(s) = S(s) (ysp (s) − gd (s)d(s))
donde S(s) = (1 + gc (s)gp (s))−1 es la función de sensibilidad.
Si ahora asumimos que el mismo controlador se aplica a la planta con incertidumbre
y ∗ (s) = gp∗ (s)u∗ (s) + gd∗ (s)d(s), obtendremos una nueva función de sensibilidad S ∗ (s) =
(1 + gc (s)gp∗ (s))−1 y
e∗ (s) = ysp (s) − y ∗ (s) = S ∗ (s) (ysp (s) − gd∗ (s)d(s))
Si consideramos que el error de modelado en gp (s) viene dado por una incertidumbre
multiplicativa de salida, entonces:
gp∗ (s) = (1 + E(s))gp (s)

56
3.7. Limitaciones en el rendimiento

y la función de sensibilidad
S(s)
S ∗ (s) =
1 + E(s)T (s)
con T (s) la función de sensibilidad complementaria del sistema nominal y E(s) = (gp (s) −
gp∗ (s))/gp (s) el error relativo.
De la expresiones anteriores podemos observar que el error de seguimiento (e(s) y
e∗ (s)) es débilmente afectado por el error de modelado en el rango frecuencial donde el
controlador es efectivo, i.e. |S(jw)| << 1 y |T (jw)| ≈ 1. Además, si tenemos un controlador
con efecto integral y si el sistema a lazo cerrado es estable entonces S(0) = S ∗ (0) = 0, por
lo tanto, en estado estacionario no existirá error de seguimiento (no hay offset), aún con
error de modelado.
Sin embargo, aunque el control por retroalimentación contrarresta el efecto de la incer-
tidumbre en las frecuencias donde la ganancia del lazo es grande, la incertidumbre en la
región de la frecuencia de cruce puede dar como resultado un bajo rendimiento e incluso
inestabilidad.

57
Capı́tulo 4
Control multivariable

En este capı́tulo abordaremos numerosos conceptos relacionados con el control por


retroalimentación en sistemas con múltiples entradas y múltiples salidas (MIMO, de sus
siglas en Inglés). En particular, consideraremos procesos con igual número de salidas y
entradas (sistemas cuadrados). Analizaremos esencialmente dos estructuras diferentes de
controlador MIMO: descentralizado (diagonal o de múltiples lazos) e IMC (completo).
Dejaremos para el próximo capı́tulo el diseño de estructuras de control sobre sistemas no
cuadrados y controladores del tipo dispersos (o de interacción predefinida). Presentaremos
también la bien conocida “matriz de ganancias relativas” (RGA, de sus siglas en Inglés), la
cual nos ayudará a definir el mejor apareamiento entrada salida para diseñar una estructura
de control descentralizada. Analizaremos el comportamiento de los sistemas MIMO en
cuanto a su interacción, sensibilidad, direccionalidad y robustez.

4.1. Introducción
Consideremos el proceso MIMO con ny salidas, nu entradas y nd perturbaciones, con la
siguiente representación en matriz de funciones de transferencia en el dominio de Laplace:

y(s) = Gp (s)u(s) + Gd (s)d(s) (4.1)

con      
y1 (s) u1 (s) d1 (s)
 y2 (s)   u2 (s)   d2 (s) 
y(s) =  .. , u(s) =  .. , d(s) =  .. (4.2)
     

 .   .   . 
yny (s) unu (s) dnd (s)
y
p p p
g11 (s) g12 (s) ... g1n (s)
 
u
p p p
 g21 (s) g22 (s) ... g2n u
(s) 
Gp (s) =  .. .. .. ..
 

 . . . . 
gnpy 1 (s) gnpy 2 (s) . . . gnpy nu (s)
(4.3)
 d (s)
g11 d (s)
g12 ... d (s)
g1n

d
 d (s)
g21 d (s)
g22 ... d (s)
g2n 
d
Gd (s) =  .. .. .. ..
 

 . . . . 
gndy 1 (s) gndy 2 (s) . . . gndy nd (s)

59
4.1. Introducción

d(s)
Gd (s)

ysp (s) e(s) u(s) + y(s)


Gc (s) Gp (s)
+ +
-

Figura 4.1: Sistema de control MIMO

Generalmente, a lo largo de este capı́tulo consideraremos ny = nu , salvo que se indique lo


contrario.
Claramente, un cambio en u1 producirá un efecto en todas la variables de salida, de y1
hasta yny , y esto se conoce como “interacción”. En un proceso sin interacción (diagonal),
u1 solo afecta a y1 , u2 afecta a y2 y ası́ sucesivamente.
Una diferencia importante con los sistemas SISO, es que la magnitud de esta interacción
también depende de la “dirección” en la que se produce la perturbación. Independiente-
mente de estas consideraciones, la mayorı́a de los conceptos establecidos para sistemas de
control SISO se pueden extender también a sistemas MIMO. La descomposición en valo-
res singulares (SVD, de sus siglas en Inglés) nos permitirá cuantificar la direccionalidad
multivariable de forma eficaz.

4.1.1. Funciones de transferencia para sistemas MIMO


De forma similar a lo presentado en la Fig. 3.1, para sistemas SISO, en este caso
definimos la estructura de control por retroalimentación unitaria para plantas MIMO
como se muestra en la Fig. 4.1. Se supone por ahora, actuadores y sensores ideales.
En este caso también podemos definir las funciones caracterı́sticas como,

Función de transferencia de lazo directo: L(s) = Gp (s)Gc (s)

Función de sensibilidad: S(s) = [I + L(s)]−1

función de sensibilidad complementaria: T(s) = [I + L(s)]−1 L(s)

notar que T(s) + S(s) = I. Donde I es la matriz identidad de ny × ny .


La transferencia de ysp (s) a y(s) es T(s) y la transferencia de Gd (s)d(s) a y(s) es S(s),
como en el capı́tulo anterior. Generalmente, estas funciones se denominan “sensibilidad
complementaria de salida” y “sensibilidad de salida”, respectivamente. Para hacer esto
más explı́cito, a veces se suelen notar como: LO (s) = L(s) = Gp (s)Gc (s), SO (s) = S(s)
y TO (s) = T(s), para distinguirlas de las funciones de sensibilidad que pueden calcularse
respecto de la entrada del proceso. La Ec. 3.5 sigue siendo válida en este contexto y la
expresión de la salida a lazo cerrado de la Fig. 4.1 es:

y(s) = T(s)ysp (s) + S(s)Gd (s)d(s) (4.4)

60
4.2. Respuesta en frecuencia para sistemas MIMO

4.2. Respuesta en frecuencia para sistemas MIMO


La matriz de funciones de transferencia G(s) depende de la variable de Laplace s
y representa un sistema dinámico multivariable. Si fijamos la variable de Laplace a un
valor determinado, s = s0 , entonces podemos ver a G(s0 ) simplemente como una matriz
compleja, la cual podemos analizar con herramientas comunes provenientes de álgebra
matricial. En particular, adoptamos s0 = jw ya que G(jw) representa la respuesta del
sistema a una señal sinusoidal de frecuencia w.
Consideremos un sistema del tipo y(s) = G(s)d(s), entonces la respuesta frecuencial
se puede obtener trabajando sobre cada componente del proceso por separado y luego
integrándolas. Si gij (jw) es la componente de G(jw) que vincula la entrada dj (jw) con la
salida yi (jw), entonces
yi (jw) = gij (jw)dj (jw)
si consideramos todas las componentes de d(jw), tenemos que la salida yi (jw) se puede
expresar como:
nd
X
yi (jw) = gi1 (jw)d1 (jw) + gi2 (jw)d2 (jw) + . . . + gind (jw)dnd (jw) = gij (jw)dj (jw)
j=1

Si ahora consideramos todas la salidas, podemos expresar la respuesta en forma ma-


tricial:
y(jw) = G(jw)d(jw)
donde    
y1 (jw) d1 (jw)
 y2 (jw)   d2 (jw) 
y(jw) =  .. , d(jw) =  ..
   

 .   . 
yny (jw) dnd (jw)

4.2.1. Direcciones en sistemas multivariables


Para sistemas SISO y(jw) = g(jw)d(jw) la ganancia a una frecuencia dada es

|y(jw)| |g(jw)d(jw)|
= = |g(jw)|
|d(jw)| |d(jw)|

Esta ganancia depende de la frecuencia w y es independiente de la magnitud |d(jw)|. En


los sistemas MIMO, las cosas no son tan simples ya que la entrada y la salida son vectores
y sus componentes necesitan ser consideradas globalmente, por ejemplo, con algún tipo
de norma. Si consideramos la norma 2, las magnitudes de los vectores entrada y salida se
pueden expresar como:
v v
u ny
u nd
uX uX
||d(jw)||2 = t |dj (jw)|2 ||y(jw)||2 = t |yi (jw)|2 (4.5)
j=1 i=1

y la ganancia del sistema MIMO viene dada por:

||y(jw)||2 ||G(jw)d(jw)||2
= (4.6)
||d(jw)||2 ||d(jw)||2

61
4.2. Respuesta en frecuencia para sistemas MIMO

esta ganancia resulta similar al caso SISO, pero ahora tenemos un grado de libertad
adicional, la “dirección” del vector d(jw) (Skogestad and Postlethwaite, 2005).

Ejemplo 4.2.1 (Ganancia en sistemas multivariables). Consideremos un sistema de 2×2,


donde la matriz de transferencia viene dada por,
 
5 4
G=
3 2

Queremos hallar la respuesta y = Gd cuando el vector d toma los siguientes valores:


         
1 0 0.707 0.707 0.6
d1 = , d2 = , d3 = , d4 = , d5 =
0 1 0.707 −0.707 −0.8

notar que todos los vectores de entrada propuestos tienen la misma magnitud, ||d||2 = 1,
pero diferentes direcciones.
Calculando las salidas correspondientes tenemos:
         
5 4 6.36 0.707 −0.2
y1 = , y2 = , y3 = , y4 = , y5 =
3 2 3.54 0.707 0.2

y las cinco ganancias de salida son:

||y1 ||2 = 5.83, ||y2 ||2 = 4.47, ||y3 ||2 = 7.30, ||y4 ||2 = 1.00, ||y5 ||2 = 0.28

mostrando la clara dependencia de la ganancia del sistema respecto de la dirección excitada


por la entrada.

El máximo valor de la ganancia en la Ec. 4.6, variando la dirección de d(jw), se


denomina máximo valor singular de G(jw) a la frecuencia w, es decir

||G(jw)d(jw)||2
σ (G(jw)) = máx (4.7)
d6=0 ||d(jw)||2

de forma similar, podemos definir el mı́nimo valor de la ganancia como:

||G(jw)d(jw)||2
σ (G(jw)) = mı́n (4.8)
d6=0 ||d(jw)||2

el cual define el mı́nimo valor singular de G(jw) a la frecuencia w.

4.2.2. Autovalores y ganancia


Los autovalores de una matriz de funciones de transferencia, λi (G(jw)), no generan la
suficiente información respecto a la generalización de la ganancia |G(jw)|. Inicialmente,
es importante notar que los autovalores sólo se pueden calcular sobre sistemas cuadrados.
El problema aquı́ radica en que los autovalores cuantifican la ganancia en el caso
especial en que las entradas y las salidas están en la misma dirección, denominada dirección
de los autovectores. Para ver esto considere que ti es un autovector de G y considere
la entrada d = ti . Entonces, la salida es y = Gti = λi ti , donde λi es el autovalor

62
4.2. Respuesta en frecuencia para sistemas MIMO

correspondiente. Entonces |λi | mide la ganancia del sistema en la dirección ti . Esto puede
ser útil para un análisis de estabilidad, pero no para un análisis de rendimiento.
Para lograr una generalización útil de la ganancia |G|, para el caso en que G es una
matriz, necesitamos el concepto de norma matricial ||G||. En el Apéndice A el lector encon-
trará una completa definición de las normas que utilizaremos en este libro. En particular
se establece la diferencia entre normas y normas inducidas por un vector. La Ec. 4.7 es un
caso de norma inducida y generalmente se representa como, ||G||i2 = σ (G).

4.2.3. Descomposición en valores singulares


La definición matemática formal de las descomposición en valores singulares (SVD,
por su siglas en Inglés) se puede encontrar en Skogestad and Postlethwaite (2005). En esta
sección estamos interesados en la interpretación fı́sica de la SVD cuando la aplicamos a la
respuesta en frecuencia de un sistema MIMO, G(s), de dimensiones ny × nu .
Consideremos un frecuencia fija w, donde G(jw) (o directamente G por simplicidad)
es una matriz constante de ny × nu . Entonces esta matriz puede descomponerse mediante
descomposición en valores singulares como:

G = UΣVT (4.9)

donde la función transpuesta debe cambiarse por la compleja conjugada transpuesta cuan-
do hablamos de matrices en el dominio complejo.
De la Ec. 4.9 podemos identificar las siguientes componentes:

La matriz diagonal Σ de k×k, donde k = mı́n(ny , nu ), posee en su diagonal principal


los valores singulares (valores no negativos), σi , ordenados en forma decreciente. Las
componentes fuera de la diagonal principal son todas nulas. Los valores singulares y
los autovalores están vinculados mediante la siguiente relación,
q
σi (G) = λi (GT G)

La matriz U de ny × k se denomina matriz de vectores singulares de salida.

De forma similar, la matriz V de nu × k se denomina matriz de vectores singulares


de entrada.

Las columnas de las matrices U y V son los vectores singulares correspondientes y son
ortonormales entre ellos. Lamentablemente, el i-ésimo vector singular de salida se denota
como ui , al igual que la entrada a un proceso. Es importante no confundir estos conceptos
y analizar el contexto en el cual se está utilizando determinada notación.
Las columnas de U representan las “direcciones de salida” del proceso y las columnas
de V las “direcciones de entrada” de la planta. Debido a que los vectores singulares son
ortonormales, cumplen con,

||ui ||2 = 1, uT
i ui = 1, uT
i uj = 0, ∀i 6= j, UT U = I

Si multiplicamos, por derecha, ambos miembros de la Ec. 4.9 con V, tenemos que
GV = UΣ y para cada columna,
Gvi = σi ui
con vi y ui vectores y σi un escalar.

63
4.3. Control de plantas multivariables

Es decir si consideramos una entrada en la dirección vi obtendremos una salida en la


dirección ui . Además como ||ui ||2 = 1 y ||vi ||2 = 1, vemos que el valor singular σi nos
brinda información de la ganancia del proceso G en esa dirección.
En este sentido, la Ec. 4.7 representa la mayor ganancia obtenible del proceso, σ, y la
dirección en la que se produce se denomina “dirección más importante”. Igualmente, la
Ec. 4.8 nos brinda información de la ganancia más débil de la planta, σ, y su dirección
se llama “dirección de menor importancia”. Dependiendo del valor de la ganancia más
débil del proceso (cercano a cero o no), la dirección de menor importancia se vuelve
relevante ya que nos indica la dirección en la cual una determinada entrada no tendrá
efecto sobre las salidas. Los procesos que poseen un valor de σ muy próximo a cero se
denominan “procesos mal acondicionados” y esta caracterı́stica se puede evaluar mediante
el concepto de “número de condición” que veremos en secciones siguientes.
Si un proceso se define como “mal acondicionado” (σ ≈ 0), entonces nos permite
adelantar que existirán direcciones de las entradas para las cuales el proceso no responderá
(ganancia nula), i.e. nos brinda información de potenciales problemas de control.

4.2.4. Valores singulares y rendimiento


En el caso SISO habı́amos presentado un análisis de la evolución en frecuencia de la
magnitud de la función de sensibilidad, |S(jw)|, como un indicador de la efectividad del
sistema de control. De forma similar, en el caso MIMO, podemos generalizar este análisis
presentando la evolución frecuencial de las ganancias lı́mite σ(S(jw)) y σ(S(jw)).
Generalmente los valores singulares de S(jw) son de valor reducido a bajas frecuencias,
donde el control es efectivo, y tienden a uno a frecuencias elevadas, debido a que todo siste-
ma real es estrictamente propio. El máximo valor singular, σ(S(jw)), generalmente posee
un pico mayor que la unidad en la zona de frecuencias de cruce. Este pico es indeseable
pero es inevitable en sistemas reales.
Para sistemas MIMO, el ancho de banda dependerá de las direcciones de las entradas y
tendremos una región de ancho de banda definida por la frecuencia donde el máximo valor
singular, σ(S(jw)), cruza 0.7 y una frecuencia superior donde el mı́nimo valor singular,
σ(S(jw)), alcanza el valor 0.7. Si necesitamos asociar un único ancho de banda, tomaremos
el peor caso definido por σ.

4.3. Control de plantas multivariables


Consideremos la estructura de control de la Fig. 4.1. Una estrategia conceptualmente
simple para el diseño de controladores multivariables es primero definir un “compensador”
para lidiar con la interacción en Gp (s) y luego diseñar un controlador “diagonal” utilizando
métodos similares a el caso SISO.
El método más común es diseñar un compensador, W1 (s), que se encargue de la
interacción de la planta y la transforme en una nueva planta:

Gnp (s) = Gp (s)W1 (s) (4.10)

la cual es más diagonal y fácil de controlar que la original, Gp (s).


Una vez transformada la planta original, podemos diseñar un controlador diagonal
K(s), de forma tal que el controlador de la Fig. 4.1 resulta:

Gc (s) = W1 (s)K(s) (4.11)

64
4.3. Control de plantas multivariables

En muchos casos, los compensadores se pueden derivar desde fundamentaciones fı́sicas


y pueden incluir elementos no lineales. En lo que sigue, W1 (s) será usualmente considerada
como una matriz constante obtenida de invertir Gp (jw) a una dada frecuencia.

4.3.1. Desacoplamiento
Si el compensador de la Ec. 4.10 se elige de forma tal que Gnp (s) resulta prácticamen-
te diagonal, en definidas frecuencias, estamos en presencia de un desacoplamiento. Los
siguientes casos son posibles:
Desacoplamiento dinámico: Gnp (s) es diagonal a todas las frecuencias. Por ejemplo,
Gnp (s) = I, entonces para un proceso cuadrado tenemos que W1 (s) = G−1 p (s) (sin
tener en cuenta los problemas potenciales en la inversión). En este caso parece razo-
nable elegir K(s) = l(s)I, con l(s) = k/s. Entonces el controlador resulta:
Gc (s) = W1 (s)K(s) = l(s)G−1
p (s)

Nos referiremos a este tipo de controladores como basados en la inversa de la planta.


Desacoplamiento estático: Gnp (0) es diagonal. Esto se obtiene eligiendo el compen-
sador como una matriz constante W1 = G−1 p (0).

Desacoplamiento aporoximado a frecuencia w0 : estrategia similar a la anterior, pero


ahora se busca que Gnp (w0 ) sea lo más diagonal que se pueda.
La idea de usar un controlador de desacoplamiento es atractiva pero existen varias
dificultades:
Gnp (s) no se puede elegir libremente
El control por desacoplamiento puede resultar muy sensible a errores de modelado
e incertidumbres.
La caracterı́stica de desacople puede no ser útil desde el punto de vista de las per-
turbaciones.
Aunque los controladores de desacoplamiento pueden no ser deseables en la práctica,
son de interés desde un punto de vista teórico. También brindan información sobre las
limitaciones impuestas por las interacciones multivariables en el rendimiento. Un méto-
do de diseño popular, que esencialmente produce un controlador de desacoplamiento es
el control por modelo interno (IMC) propuesto por Morari and Zafiriou (1989), el cual
abordaremos en próximas secciones.

4.3.2. Pre-Post compensadores y controladores SVD


El post-compensador de la Ec. 4.11 se puede extender con un pre-compensador como,
Gc (s) = W1 (s)K(s)W2 (s) (4.12)
la idea sigue siendo diseñar un controlador diagonal K(s) para la nueva planta Gnp (s) =
W2 (s)Gp (s)W1 (s).
El controlador SVD es un caso especial de diseño basado en pre-post compensadores.
En este caso, W1 = V0 y W2 = UT 0 , donde V0 y U0 se obtienen de la descomposición
en valores singulares de G0 = U0 Σ0 V0T . Donde G0 es una aproximación de la planta real
a una dada frecuencia w0 . Entonces, si elegimos K(s) = l(s)Σ−1
0 se obtiene un diseño de
controlador multivariable basado en desacoplamiento.

65
4.4. Número de condición y RGA

4.3.3. Control descentralizado (diagonal)


Un método simple para diseñar estructuras de control multivariable es considerar a
Gc (s) como un controlador diagonal. Esto se conoce como controlador descentralizado.
Esta estrategia funciona de forma aceptable si Gp (s) es casi diagonal, ya que en este ca-
so el proceso completo puede verse como una colección independiente de subprocesos y
cada elemento de Gc (s) puede diseñarse independientemente. Si existen componentes de
relevancia fuera de la diagonal principal en Gp (s), entonces el rendimiento puede verse
afectado. De todas formas, este procedimiento es el más utilizado en la industria actual-
mente, debido principalmente a su simplicidad.

4.4. Número de condición y RGA


Dos herramientas utilizadas para cuantificar el grado de direccionalidad y el nivel de
interacción en sistemas MIMO son el “número de condición” y la “matriz de ganancias
relativas (RGA, de sus siglas en Inglés)”, respectivamente.

4.4.1. Número de condición


Definimos el número de condición de una matriz como el cociente entre el máximo y
mı́nimo valor singular,
σ(Gp )
γ(Gp ) = (4.13)
σ(Gp )
una matriz con elevado número de condición se denomina “mal acondicionada”.
El número de condición depende fuertemente del escalado de las entradas y salidas.
En general, la matriz del proceso Gp debe escalarse con sentido fı́sico, por ejemplo, cada
entrada y salida debe dividirse por su máximo rango esperado de variación o por su valor
deseado de operación, según se discutió en la Sección 1.3.
El número de condición se utiliza también como un ı́ndice de controlabilidad entrada-
salida. Si γ(Gp ) es elevado (digamos mayor a 10) es un indicio de problemas de control,

Un valor elevado en el número de condición puede estar dado por un valor muy bajo
de σ(Gp ), lo cual es indeseable.

Un valor elevado en el número de condición significa valores elevados de la matriz


RGA, lo que implica problemas fundacionales de control.

4.4.2. Matriz de ganancias relativas (RGA)


La RGA fue propuesta originalmente por Bristol (1966) para facilitar el diseño de
sistemas de control descentralizados analizando las configuraciones con mı́nima interacción.
La RGA es una de las primeras herramientas sistemáticas utilizadas en el análisis de
interacción y en la definición del apareamiento entrada-salida en sistemas MIMO. Aún
hoy es la herramienta más utilizada en la industria de procesos. La versión original de la
RGA, sólo requiere la matriz de ganancias a lazo abierto en estado estacionario del proceso,
Gp (0). Si bien existen numerosas formas alternativas en la actualidad (como veremos en
el próximo capı́tulo), la estrategia clásica de RGA es muy atractiva por su simplicidad y
eficacia (Skogestad and Postlethwaite, 2005; Khaki-Sedigh and Moaveni, 2009).
Asumamos un sistema cuadrado Gp (s) de dimensiones nl × nl , cuyas ganancias de
estado estacionario son Gp y se relacionan según las Ecs. 4.1-4.2 como ∆y = Gp ∆u o

66
4.4. Número de condición y RGA

matricialmente:    p p  
∆y1 g11 . . . g1n l
∆u1
 ..   .. .. ..   .. 
 . = . . .  . 
p p
∆ynl gnl 1 . . . gnl nl ∆unl
Entonces definimos cada componente de la RGA como,
ganancia a lazo abierto entre yi y uj
λij =
ganancia a lazo cerrado entre yi y uj

∆yi /∆uj |∆uk =0,∀k6=j, ∆uj =libre


=
∆yi /∆uj |∆yk =0,∀k6=i, ∆yi =libre
(4.14)

∆yi ∆uj
= ·
∆uj ∆uk =0,∀k6=j, ∆uj =libre ∆yi ∆yk =0,∀k6=i, ∆yi =libre

p p
= gij ĝji

donde λij es la ganancia relativa entre la salida yi y la entrada uj . Es importante notar


que la condición “∆yk = 0, ∀k 6= i, ∆yi = libre”, en la Ec. 4.14, significa que la salida
yi se puede mover libremente y que las restantes salidas están bajo “control perfecto”,
∆yk = 0, ∀k 6= i. La idea de control perfecto, que se utiliza en varios desarrollos de
sistemas de control, se pude cristalizar en estado estacionario asumiendo que la estrategia
de control bajo diseño contará con acción integral.
p
Si pensamos la definición de la Ec. 4.14 en forma matricial vemos que gij son las
componentes de la matriz Gp cuando resolvemos el sistema ∆y = Gp ∆u, excitando los
p
∆uj individualmente. De igual forma, ĝji son las componentes de la matriz G−1
p cuando
−1
resolvemos el sistema ∆u = Gp ∆y, excitando los ∆yi individualmente. Entonces, se
puede escribir:
T
Λ(Gp ) = Gp ⊗ G−1 p (4.15)
siendo Λ(Gp ) una matriz cuadrada de nl × nl , donde ⊗ es el producto elemento a elemento
o también conocido como producto Hadamard.
La matriz RGA posee las siguientes propiedades algebraicas:
La matriz RGA es independiente del escalado o normalización de Gp .

Sus filas y columnas suman uno.

Si un proceso presenta en su RGA elementos de elevado valor, esto es un claro indicio


de que dicha planta esta “mal acondicionada”. Su inversa tiene problemas.

La RGA es la matriz identidad si Gp es triangular superior o inferior.

Permutar columnas o filas en Gp produce el mismo intercambio de filas y columnas


en la RGA.
Si bien Bristol (1966) definió la RGA para el caso en estado estacionario, algunos
estudios futuros extendieron el análisis al dominio frecuencial Skogestad and Postlethwaite
(2005). En particular en la zona de frecuencias de cruce o del ancho de banda. Ası́ la RGA
también nos proporciona algunas propiedades vinculadas con control:

67
4.4. Número de condición y RGA

La RGA es un buen indicador de sensibilidad a incertidumbres:

– Incertidumbre en los canales de entrada: si la RGA presenta valores elevados


en sus componentes cerca de la frecuencia de cruce, entonces estos procesos
son difı́ciles de controlar debido a la sensibilidad a incertidumbres (por ejemplo
a dinámicas no modeladas en los actuadores). En estos casos debe evitarse la
utilización de controladores basados en la inversión del modelo.
– Incertidumbre en los elementos: elevados valores de la RGA implica elevada
p
sensibilidad a incertidumbres en los propios elementos del proceso (gij ).

RGA y ceros en el semiplano derecho: si el signo de un elemento de la RGA cambia


a lo largo de la frecuencia (de s = 0 hasta s = ∞), eso es un indicio de que existe
un cero en el semiplano derecho en el proceso multivariable.

Diagonalmente dominante: la RGA se puede utilizar para cuantificar si un proceso


es diagonalmente dominante mediante el ı́ndice

ΛN (Gp ) = ||Λ(Gp ) − I||sum (4.16)

denominado “número RGA” y donde || · ||sum es la norma suma (la suma de todos
los componentes de la matriz en valor absoluto).

Ejemplo 4.4.1 (Columna de destilación). En este ejemplo abordaremos el diseño de una


estrategia de control sobre un proceso de dimensiones 2 × 2. En este caso, tenemos el
siguiente modelo aproximado de una columna de destilación,
 
1 87.80 −86.40
Gp (s) =
75s + 1 108.20 −109.60

si bien el modelo es simple, representa muy bien las principales dinámicas existentes. Las
salidas representan la composiciones de tope y de fondo de la columna y las entradas el
reflujo y el vapor suministrado.
Si trabajamos en estado estacionario (s = 0) podemos evaluar algunos ı́ndices presen-
tados anteriormente,
 
35.06 −34.06
Λ(Gp ) = , σ(Gp ) = 197.21, σ(Gp ) = 1.39, γ(Gp ) = 141.73
−34.06 35.06

se observa que la RGA presenta una alta interacción entrada-salida, con valores elevados
en sus componentes y con un único posible apareamiento u1 −y1 y u2 −y2 . Como analizamos
anteriormente, estos valores elevados en la RGA se deben a un mal acondicionamiento de
Gp el cual queda demostrado por un excesivo valor del número de condición γ(Gp ). Como
se observa de los valores singulares, existe una gran diferencia entre σ(Gp ) y σ(Gp ) lo que
indica que hay direcciones de las entradas que afectan fuertemente las salidas del proceso
y direcciones que tienen un efecto mucho menor.
El problema de la interacción se puede resolver, o aliviar, diseñando un controlador
desacoplador/compensador como vimos en secciones anteriores. Los elevados valores en
las componentes de la RGA nos pone de manifiesto otro problema: la alta sensibilidad a
incertidumbres de modelado.

68
4.4. Número de condición y RGA

2.5

1.5

Salidas
1

0.5

0
0 5 10 15 20 25 30
Tiempo

Figura 4.2: Control multivariable de la columna de destilación

Definamos entonces el siguiente controlador multivariable,


 
k 0.3994 −0.3149
Gc (s) = W1 (s)K(s) = (75s + 1)
s 0.3943 −0.3200

donde W1 (s) = Gp (s)−1 , K(s) = k/s y k = 0.7.


Se puede observar que, sin error de modelado, la ganancia de lazo directo es L(s) =
Gp (s)Gc (s) = (0.7/s)I y las funciones de sensibilidad son:

s 1
S(s) = I, T(s) = I
s + 0.7 1.43s + 1
claramente podemos observar que la respuesta ante un cambio de setpoint es del tipo primer
orden en cada salida y con igual constante de tiempo (1/k = 1.43 min.).
Ahora bien, para corroborar la información que brinda la RGA cuando sus elementos
son de elevado valor, vamos a suponer una incertidumbre en las ganancias de entrada del
10 % respecto de su valor nominal. Entonces la nueva planta, Gunp (s), se puede expresar
como:  
un 1 + ǫ1 0
Gp (s) = Gp (s)
0 1 + ǫ2
siendo en este caso, ǫ1 = 0.1 y ǫ2 = −0.1.
La respuesta del controlador Gc (s) aplicado a la planta nominal Gp (s) y el mismo con-
trolador aplicado a la planta con incertidumbre Gun p (s) se puede apreciar en la Fig. 4.2.
En la simulación se muestra un cambio de setpoint de valor unitario en y1 y, simultánea-
mente, un cambio en la referencia de y2 de valor 0.5. En lı́nea continua se puede observar
el comportamiento de la planta nominal a lazo cerrado y en lı́nea de trazos el mismo
controlador actuando sobre la planta con incertidumbre. Claramente, se puede apreciar el
los efectos nocivos de la incertidumbre cuando la planta no está bien acondicionada, i.e.
elevados valores en los elementos de la RGA. No es recomendable diseñar un controlador
multivariable con “inversión de modelo” en estos casos.

69
4.4. Número de condición y RGA

4.4.3. Integridad y apareamiento


La interacción en plantas multivariables pueden deteriorar las propiedades a lazo ce-
rrado ya que (Khaki-Sedigh and Moaveni, 2009):

introduce perturbaciones entre los diferentes lazos de control,

puede eliminar la estabilidad, aún cuando los controladores individuales sean esta-
bles.

Las propiedades de la RGA presentadas en secciones anteriores pueden utilizarse para


cuantificar el grado de interacción de los procesos MIMO. En esta sección se estudiará el
rol de la RGA en el análisis de estabilidad a lazo cerrado. Esto es de gran relevancia en
aplicaciones industriales ya que podemos obtener información acerca de la estabilidad del
sistema de control simplemente utilizando la RGA.
Asumiendo la estructura de control que se muestra en la Fig. 4.1, el diseño del contro-
lador multivariable de la Ec. 4.11 y el requisito de acción integral podemos plantear que el
controlador puede expresarse como Gc (s) = (Ik/s)W1 (s), donde Ik/s es la parte integral
pura, k > 0 el parámetro de ajuste y W1 (s) el pre-compensador según se discutió en
secciones anteriores. Recordando la Ec. 4.10, la planta compensada queda entonces como
Gnp (s) = Gp (s)W1 (s), con la condición de que Gnp (s) sea propia.

Definición 4.4.1 (Estabilizable Integralmente). El proceso Gnp (s) = Gp (s)W1 (s) es con-
siderado “estabilizable integralmente” si existe un k > 0 tal que Gnp (s) controlada por Ik/s
(retroalimentación unitaria de salida) es estable a lazo cerrado y además presenta cero
offset en estado estacionario.

Teorema 4.4.1. Sea Gnp (s) una matriz de funciones de transferencia estables, propias
y racionales, entonces el proceso es estabilizable integralmente solo sı́ det Gnp (0) > 0.


(Grosdidier et al., 1985; Khaki-Sedigh and Moaveni, 2009).

El Teorema 4.4.1 es sólo una condición necesaria para estabilidad integral para procesos
MIMO. Sin embargo, para casos SISO es una condición necesaria y suficiente (Grosdidier
et al., 1985).
Una caracterı́stica deseable e importante de todo sistema de control es la “integridad”.
Esta propiedad asegura la estabilidad a lazo cerrado a medida que los controladores de
los subsistemas entran y salen de servicio Bristol (1966). Niederlinski en 1971, introduce
un teorema interesante para cuantificar la integridad, el cual posteriormente reformula de
forma más adecuada Grosdidier et al. (1985).

Teorema 4.4.2. Considere el mismo sistema de control enunciado en la Definición 4.4.1,


siendo ahora W1 (s) diagonal. Considere además,

Gp (s) es estable

Gnp (s) = Gp (s)W1 (s) es una matriz racional y propia

Entonces el sistema es inestable para k > 0 si

det (Gp (0))


NI(Gp (0)) = Qnl p < 0 (4.17)
i=1 gii

donde NI(Gp (0)) es el denominado ı́ndice de Niederlinski.

70
4.4. Número de condición y RGA

Corolario 4.4.1. Para nl > 2 y cualquier λii negativo, la estructura de control descen-
tralizada tiene una de las siguientes propiedades:
NI(Gp (0)) < 0, la planta a lazo cerrado es inestable. Pero la planta reducida, sin el
i-ésimo lazo de control puede ser estabilizada.
NI(Gp (0)) > 0, la planta a lazo cerrado es inestable cuando falle el el i-ésimo lazo
de control.
En los sistemas de control industriales, los problemas de integridad están relaciona-
dos con fallos en sensores y actuadores. En el caso de sensores, las fallas producen que
el controlador reciba señales incorrectas. En el caso de actuadores, la acción de control
resulta incompleta. Ambos tipos de mal funcionamiento puede ocasionar problemas graves
de control e inestabilidad. En los sistemas industriales, este tipo de fallos se detecta rápi-
damente y el controlador perteneciente al lazo que falló se saca fuera de servicio mientras
dure la reparación/reemplazo. Mientras tanto, resulta crucial garantizar la estabilidad del
resto del proceso.
Teorema 4.4.3. Sea Gnp (s) una matriz de funciones de transferencia propias, racionales
y estabilizable integralmente. Entonces la planta
 a lazo
 cerrado con con una falla en el
j-ésimo sensor/actuador es inestable si det Gp (0) < 0. Donde Gnjj
njj
p (0) es la matriz
n
Gp (0) sin la j-ésima columna y fila. (Grosdidier et al., 1985; Khaki-Sedigh and Moaveni,
2009).
También existen dos conceptos relacionados con la estabilidad integral, vista anterior-
mente, que se denominan “controlabilidad integral” y “controlabilidad integral descentra-
lizada” los cuales garantizan la estabilidad del sistema de control descentralizado cuando
detuneamos el parámetro k de la parte integral a cero. Para más información ver el capı́tulo
2 de (Khaki-Sedigh and Moaveni, 2009).

4.4.4. Reglas de apareamiento mediante RGA


Basado en las anteriores propiedades, presentaremos las reglas de apareamiento entrada-
salida con RGA para diseñar sistemas de control MIMO descentralizados. Los siguientes
puntos son cruciales en la elección del apareamiento:
Elegir un par entrada-salida con su correspondiente elemento de la RGA cercano a
uno (Bristol, 1966).
El ı́ndice de Niederlinski debe ser positivo (Grosdidier et al., 1985).
Los elementos seleccionados de la RGA que corresponden al apareamiento deben ser
positivos.
Elementos de la RGA con valores elevados no son apropiados para definir el aparea-
miento (Skogestad and Morari, 1987).

Ejemplo 4.4.2 (Proceso 3 × 3). Consideremos en este caso la siguiente planta multiva-
riable,  
1 −4.19 −25.96
(1 − s) 
Gp (s) = 6.19 1 −25.96 
(5s + 1)2
1 1 1

71
4.4. Número de condición y RGA

1.6 2.5
EC1 EC1
1.4 EC2 EC2
1.2 2

0.8 1.5

0.6
y1

y2
0.4 1

0.2

0 0.5

−0.2

−0.4 0
0 500 1000 1500 2000 2500 3000 0 500 1000 1500 2000 2500 3000
Tiempo [s] Tiempo [s]

(a) Salida y1 (b) Salida y2

0.8

0.6
y3

0.4

0.2

EC1
−0.2
EC2
0 500 1000 1500 2000 2500 3000
Tiempo [s]

(c) Salida y3

Figura 4.3: Control descentralizado - Diferentes apareamientos

propuesta en Khaki-Sedigh and Moaveni (2009).


La matriz de ganancias relativas resulta:

1 5 −5
Λ(Gp ) =  −5 1 5 
5 −5 1

siguiendo la información de la RGA y las recomendaciones anteriores sobre el aparea-


miento, vemos que la estructura de control descentralizada más recomendable es: u1 − y1 ,
u2 − y2 y u3 − y3 , la cual llamaremos EC1.
Si analizamos la RGA vemos que existe una apareamiento alternativo: u1 − y3 , u2 − y1
y u3 − y2 , al que llamaremos EC2. En Khaki-Sedigh and Moaveni (2009) se presentan los
parámetros de ajuste de ambas estructuras de control, los cuales fueron obtenidos de forma
óptima. La comparación entre la EC1 y la EC2 se puede observar en la Fig. 4.3 cuando
un cambio de setpoint unitario se propone en cada una de las salidas de forma simultánea.
En este caso, se observa que la EC2, apareamiento sobre elementos de la RGA de valor 5,
presenta mejor rendimiento que la EC1, obtenida apareando sobre elementos unitarios de
la RGA.

72
4.5. Control por modelo interno (IMC)

EC1
20
EC2

Magnitud [dB]
0
−3

−5 −4 −3 −2 −1 0 1 2
10 10 10 10 10 10 10 10
Frecuencia [rad/s]

Figura 4.4: Máximo valor singular de la función de sensibilidad - σ(S(jw))

Si bien podemos estar tentados a elegir la EC2, es importante tener en cuenta lo dis-
cutido en el Ejemplo 4.4.1 sobre los valores elevados de la RGA. La EC2 es más sensible
a incertidumbre en los canales de entrada. Esto se puede corroborar analizando la función
de sensibilidad en el dominio de la frecuencia para ambas estructuras de control. En la
Fig. 4.4 se puede observar el máximo valor singular, σ(S(jw)), para EC1 y EC2. Clara-
mente, la EC2 presenta mayor ancho de banda, wB , lo que implica mejor rendimiento.
Pero a su vez presenta mayor valor de pico, ||S(s)||∞ , lo que implica elevada sensibilidad
a incertidumbres. La EC1 presenta un ancho de banda muy bajo, indicando una respuesta
muy lenta a lazo cerrado.

Si bien los picos de las funciones de sensibilidad y los elementos de la RGA son indi-
cadores útiles para analizar la robustez y el rendimiento de un sistema, no proporcionan
una respuesta exacta a si una fuente dada de incertidumbre producirá inestabilidad o
bajo rendimiento. Para abordar este problema de forma más sistemática, en Morari and
Zafiriou (1989) y Skogestad and Postlethwaite (2005) se propone una estrategia basada
en valores singulares estructurados (SSV, de sus siglas en Inglés) o también denominado
“análisis-µ”.

4.5. Control por modelo interno (IMC)


Esta sección se basa en los trabajos de Garcia and Morari (1985) y Morari and Zafiriou
(1989). Según estos autores la calidad de un controlador debe ser juzgada de acuerdo a
los siguientes criterios:

Comportamiento regulador: las VCs deben mantenerse cerca de sus valores de refe-
rencia independientemente de las perturbaciones no medidas que afecten al proceso.

Comportamiento servo: los cambios en el setpoint deben seguirse de forma rápida y


suave.

73
4.5. Control por modelo interno (IMC)

d(s)
Gd (s)

ysp (s) eη (s) u(s) + y(s)


Gimc (s) Gp (s)
+ +
-
ym (s)
+
G̃p (s)
-
η(s)

Figura 4.5: Estructura IMC MIMO

Robustez: debe mantenerse la estabilidad y un rendimiento aceptable cuando el


modelo del proceso puede estar sometido a incertidumbre paramétrica y estructural.
Manejar restricciones.
Si bien estos criterios, y sus efectos, están relativamente bien comprendidos para sis-
temas SISO, la situación es bastante más compleja para casos MIMO. Por ejemplo, ¿Qué
significa buen comportamiento servo-regulador en sistemas MIMO?. Generalmente, en
sistemas multivariables, ocurre que podemos obtener buenos rendimientos sobre algunas
variables a costa de empeorar el rendimiento en otras.
Si bien existen diferentes estrategias para “desacoplar” la interacción entre las variables
en función de la importancia relativa de las salidas, la idea aquı́ no es diseñar controla-
dores desacopladores especı́ficos. La idea detrás de IMC MIMO es generalizar el diseño
de controladores desacopladores sin imponer restricciones estructurales a la función de
transferencia a lazo cerrado.

4.5.1. Propiedades
Reescribamos la Fig. 3.4 como se muestra en la Fig. 4.5 para introducir los conceptos
y relaciones de la filosofı́a IMC MIMO. Esta estructura IMC se relaciona con la clásica
estructura de retroalimentación unitaria de salida de la Fig. 4.1 mediante las siguientes
expresiones:
 −1
Gc (s) = I − Gimc (s)G̃p (s) Gimc (s)
 −1 (4.18)
Gimc (s) = I + Gc (s)G̃p (s) Gc (s)

Es importante notar que la estructura IMC utiliza el concepto de control en avance


(feedforward) y sobre él se desarrolla un lazo de retroalimentación que actúa solo cunado
es realmente necesario. Esto se puede ver si escribimos la expresión:
 
η(s) = Gp (s) − G̃p (s) u(s) + Gd (s)d(s) (4.19)

donde se puede observar que para el caso sin perturbaciones d(s) = 0 y sin error planta-
modelo Gp (s) = G̃p (s), la señal de retroalimentación de la Ec. 4.19 es nula. Indicando la
operación como control en avance únicamente.

74
4.5. Control por modelo interno (IMC)

Analizando la Fig. 4.5 y recordando las funciones de sensibilidad, podemos escribir


que:
 −1
L(s) = Gp (s)Gc (s) = Gp (s) I − Gimc (s)G̃p (s) Gimc (s)
i−1
(4.20)
h 
T(s) = Gp (s) I + Gimc (s) Gp (s) − G̃p (s) Gimc (s)
S(s) = I − T(s)
entonces, a lazo cerrado, podemos escribir las VCs y las VMs como:
h  i−1
u(s) = I + Gimc (s) Gp (s) − G̃p (s) Gimc (s) (ysp (s) − Gd (s)d(s))
h  i−1
y(s) = Gd (s)d(s) + Gp (s) I + Gimc (s) Gp (s) − G̃p (s) Gimc (s) (ysp (s) − Gd (s)d(s))
(4.21)
A continuación resumiremos algunas propiedades de la estructura IMC,
1. Creiterio de estabilidad dual: si asumimos Gp (s) = G̃p (s), entonces la estabilidad
de todo el sistema (Ec. 4.21) está garantizada si aseguramos que Gp (s) y Gimc (s)
son estables.
2. Controlador perfecto: asumimos que el controlador Gimc (s) = G̃p (s)−1 produce un
lazo estable de control IMC. Entonces este control posee seguimiento perfecto del
setpoint aún cuando perturbaciones, Gd (s)d(s), y errores planta-modelo, Gp (s) 6=
G̃p (s), afecten el lazo cerrado. Esta propiedad es de interés teórico, generalmente el
controlador Gimc (s) = G̃p (s)−1 no garantiza la estabilidad a lazo cerrado y además
podrı́a resultar no realizable. De todas formas este controlador es un buen punto de
partida para las discusiones que siguen.
3. Offset nulo: todo controlador que cumpla con Gimc (0) = G̃p (0)−1 , y que resulte
en un lazo estable de control IMC, produce entonces una estructura de control con
cero offset. De esta forma, se garantiza la acción integral de forma automática al
seleccionar la ganancia de estado estacionario del controlador como la inversa del
modelo.

4.5.2. Procedimiento de diseño


Como vimos en la Sección 3.4, el controlador perfecto Gimc (s) = G̃p (s)−1 puede no ser
aplicable por diferentes motivos: 1- G̃p (s) contiene retardos, 2- ceros inestables de G̃p (s)
y 3- Gimc (s) = G̃p (s)−1 es extremadamente sensible a errores de modelado.
Como en el caso SISO, el diseño IMC para sistemas MIMO consiste de los siguientes
dos pasos:

1. Rendimiento dinámico: dado un modelo G̃p (s), elija la factorización siguiente:

G̃p (s) = G̃+ −


p (s)G̃p (s), con G̃+
p (0) = I (4.22)

donde G̃+p (s) contiene los retardos y los ceros en el plano derecho de G̃p (s). Por lo

tanto G̃p (s) posee una inversa estable y realizable. Elija entonces,

Gimc (s) = G̃−


p (s)
−1
(4.23)

como controlador.

75
4.5. Control por modelo interno (IMC)

2. Robustez a errores de modelado: en presencia de inexactitudes del modelo, la robus-


tez del lazo de control IMC se puede mejorar incluyendo un filtro pasa bajo, F(s),
en el controlador. De forma tal que,

Gimc (s) = G̃− −1


p (s) F(s) (4.24)

Se mostrará, en las secciones siguientes, que un filtro exponencial diagonal puede


garantizar robustez ante errores de modelado arbitrariamente grandes (Garcia and
Morari, 1985).

Si consideramos Gp (s) = G̃p (s) = G̃− + − −1


p (s)G̃p (s) y Gimc (s) = G̃p (s) F(s), entonces
a lazo cerrado tenemos que

y(s) = Gd (s)d(s) + G̃+


p (s)F(s) (ysp (s) − Gd (s)d(s))

la estructura IMC revela que la elección de la matriz de transferencia a lazo cerrado está
limitada por las caracterı́sticas no mı́nima fase del proceso y los requisitos de robustez.
Retardos y ceros en el semiplano derecho son carcaterı́sticas propias del sistema, las cuales
tienen que aparecer en alguna forma (G̃+ p (s)) en la respuesta a lazo cerrado.
Ası́, F(s) es una expresión directa de la relación de compromiso entre robustez y
rendimiento. Se puede obtener un desacople completo si elegimos G̃+ p (s) y F(s) diagonal.
Aún cuando se permita cierta interacción dinámica, estas dos matrices deben cumplir con,

G̃+
p (0) = I, F(0) = I

para garantizar cero offset de estado estacionario.

4.5.3. Factorización
En Holt and Morari (1985) se presentan diferentes formas de factorización para G̃p (s) =
G̃+ −
p (s)G̃p (s) cuando la planta se ve afectada por retardos. Si bien los autores proponen
una estructura diagonal para G̃+ p (s), implementar el controlador IMC en el contexto con-
tinuo de Laplace puede resultar bastante complejo (básicamente debido a los términos
exponenciales). Por otro lado, Garcia and Morari (1985) y Morari and Zafiriou (1989)
proponen trabajar en el dominio discreto mediante la transformada “Z” ya que el aborda-
je de los retardos y ceros no mı́nima fase resulta más simple y directo. Por ello, Garcia and
Morari (1985) reformulan los resultados de Holt and Morari (1985) en el dominio discreto
como se puede observar en el siguiente teorema.
Teorema 4.5.1. Supongamos que Gp (z) es la discretización de la matriz de funciones
de transferencia continua Gp (s). De igual forma G̃p (z) representa a G̃p (s). Asumamos
además que Gp (z) = G̃p (z) y que G̃+p (z) es diagonal de la forma,
h ∗ +1)
i
−(θn
G̃+
p (z) = diag z −(θ1∗ +1) −(θ2∗ +1)
, z , . . . , z l (4.25)

Sean z (θ̂ij +1) ĝij (z) los elementos de la matriz G̃p (z)−1 , donde ĝij (z) es una función semi-
propia. Entonces,
θj∗ = máx máx(0, θ̂ij ), j = 1, . . . , nl (4.26)
i

produce el mı́nimo retardo en la respuesta necesario para que el controlador Gimc (z) =
G̃− −1 = G (z)−1 G̃+ (z) resulte realizable.
p (z) p p

76
4.5. Control por modelo interno (IMC)

Se puede obtener un diseño más simple, pero conservador, si suponemos:

G̃+
p (z) = z
−(θmax +1)
I, θmax = máx θij (4.27)
ij

donde θij son los retardos existentes en Gp (z).


Si bien la parametrización de la Ec. 4.27 produce un controlador realizable, cada salida
presentará un retardo de θmax +1 lo cual generalmente es mucho más elevado de lo deseado.
Es importante recordar que el controlador Gimc (z) debe ser realizable y a su vez estable.
Si Gp (z)−1 es inestable, entonces podemos descomponer G̃p (z) en dos partes:

G̃p (z) = G̃+1 +2 −


p (z)G̃p (z)G̃p (z)

donde G̃+1 −1 +1 +2
p (z) se elige de forma tal que G̃p (z) G̃p (z) sea realizable y G̃p (z) se diseña
− −1 −1 +1 +2
para que G̃p (z) = G̃p (z) G̃p (z)G̃p (z) resulte estable. A continuación discutiremos
como seleccionar G̃+2
p (z).
Supongamos que no hay retardos en el proceso. Entonces el objetivo es obtener G̃− p (z)
de forma tal que posea una inversa estable. Podrı́amos calcular su inversa como:
 
adj G̃p (z)
G̃−
p (z)
−1
= G̃p (z)−1 G̃+
p (z) =   G̃+
p (z)
det G̃p (z)
 
se puede demostrar que si G̃p (z) es estable, entonces “det G̃p (z) ” contendrá todos los
ceros de G̃p (z) fuera del circulo unitario (parte real positiva). Por lo tanto G̃+
p (z) deberá
− −1
contener todos los ceros “inestables” de G̃p (z) para que G̃p (z) resulte estable. Para más
detalles y ejemplos de aplicación ver Garcia and Morari (1985), Holt and Morari (1985) y
Morari and Zafiriou (1989).

4.5.4. Diseño del filtro de robustez


En presencia de error planta-modelo, se introduce un filtro en la estructura IMC para
asegurar la estabilidad. El teorema a continuación muestra que una matriz de filtros pasa
bajo diagonal de primer orden es todo lo que necesitamos para garantizar robustez. Eli-
giendo las constantes del filtro lo suficientemente grande, se puede garantizar la estabilidad
a lazo cerrado para virtualmente cualquier error planta-modelo.

Teorema 4.5.2. Asuma que el controlador IMC viene dado según la Ec.4.24, considere
también que el filtro es diagonal y de primer orden,

F(s) = diag [1/(τf1 s + 1), . . . , 1/(τfnl s + 1)]

donde diag[·] es una función que toma como entrada un vector y devuelve una matriz con
dicho vector en la diagonal principal y cero en el resto.
Entonces, existen constantes de tiempo de los filtros pasa bajo, τfi con i = 1, . . . , nl , en
F(s) que garantizan la estabilidad a lazo cerrado sı́ y solo sı́ G̃p (s) y Gp (s) cumplen con
h  i
Re λi Gp (0)G̃p (0)−1 > 0, i = 1, . . . , nl (4.28)

donde Re[·] es la función parte real, λi (·) es el i-ésimo autovalor y nl la dimensión del
sistema cuadrado bajo control. Demostración en Garcia and Morari (1985).

77
4.5. Control por modelo interno (IMC)

El Teorema 4.5.2 indica que si la ganancia de estado estacionario multivariable del


proceso y del modelo cumplen con la relación de la Ec. 4.28, entonces se puede obtener
un sistema estable a lazo cerrado y sin offset, para un error arbitrario planta-modelo,
simplemente haciendo las constantes de tiempo del filtro lo suficientemente grande. Si
recordamos de que el filtro forma parte de la respuesta a lazo cerrado del sistema, entonces
tenemos que notar que el beneficio relacionado con la robustez lo pagamos con respuestas
más lentas.
Esta forma de ajuste del control IMC MIMO, basado en el filtro, permite un reajuste
en lı́nea mucho más simple que otros sistemas de control. Lo cual lo hace muy atractivo
para su utilización industrial.
El significado fı́sico de la Ec. 4.28 se puede comprender si primero analizamos el caso
SISO, donde se requerı́a que las ganancias del modelo y del sistema en estado estacionario
sean del mismo signo. Para el caso de sistemas MIMO, los autovalores juegan el rol de las
ganancias.
Recordando que la estructura de control IMC es solo una representación alternativa
de un lazo clásico de retroalimentación unitaria de salida, por lo tanto el Teorema 4.5.2
tiene una validez general.

Ejemplo 4.5.1 (Control IMC MIMO - Columna de destilación metanol/agua). En este


ejemplo abordaremos el diseño de varias estructuras de control multivariable basado en
IMC para una columna de destilación metanol/agua presentada en Garcia and Morari
(1985).
Las columnas de destilación son los problemas de control más estudiados, en la lite-
ratura de control de procesos, ya que presentan una fuerte interacción y poseen retardos
significativos. Por lo tanto, el ajuste y diseño de controladores de retroalimentación MIMO
no es una tarea trivial.
En Garcia and Morari (1985) se presenta el modelo en matriz de funciones de trans-
ferencia de una columna de destilación metanol/agua experimental. Resumiremos a con-
tinuación el modelo del proceso en el dominio de Laplace,

y(s) = Gp (s)u(s) + Gd (s)d(s)


   
12.8e−s −18.9e−3s 3.8e−8s
16.7s+1 21.0s+1 14.9s+1
   
y1 (s)  u1 (s)
= +  d(s)
  
y2 (s) u2 (s)

6.6e−7s −19.4e−3s 4.9e−3s
10.9s+1 14.4s+1 13.2s+1

donde y1 (s) es la composición de tope, y2 (s) la composición de fondo, u1 (s) el flujo de


reflujo, u2 (s) el flujo de vapor, d(s) el flujo de alimentación y las unidades de tiempo en
minutos. El proceso no tiene ceros no mı́nima fase (ceros de transmisión).
Si tomamos un tiempo de muestreo de Ts = 1 minutos, obtenemos el siguiente modelo
discreto para Gp (s),  
0.7440 z −2 −0.8789 z −4
1−0.9419z −1 1−0.9535z −1
G̃p (z) = 
 

0.5786 z −8 −1.3020 z −4
1−0.9123z −1 1−0.9329z −1
y su correspondiente inversa resulta,
ĝ11 (z) z 2 ĝ12 (z) z 2
 

G̃p (z)−1 =  
ĝ21 (z) z 0 ĝ22 (z) z 4

78
4.5. Control por modelo interno (IMC)

donde los ĝij (z) son funciones semipropias y representan las función racionales de trans-
ferencia de la inversa (generalmente de orden elevado).
Con esta información podemos comenzar el diseño de diferentes controladores IMC
según el error estructural planta modelo especificado y según la factorización utilizada.

A) Comencemos aplicando el Teorema 4.5.1, donde resulta entonces:


 −(θ∗ +1)   −2 
z 1 0 z 0
G̃+
p (z) =
 = 
−(θ ∗ +1)
0 z −4
0 z 2

que resulta de observar G̃p (z)−1 y definir θ̂11 = 1, θ̂12 = 1, θ̂21 = −1 y θ̂22 = 3. Por
lo tanto, θ1∗ = 1 y θ2∗ = 3.

B) La segunda factorización utilizada es la propuesta conservadora de la Ec. 4.27, donde

G̃+
p (z) = z
−(θmax +1)
I = z −9 I

si analizamos G̃p (z) vemos que θmax = 8. Notar que I es la matriz identidad de 2×2.
Las factorizaciones en los ı́tems A) y B) generan los correspondientes controladores
IMC de acuerdo con Gimc (z) = G̃− −1 = G (z)−1 G̃+ (z)F(z) siendo
p (z) p p

1−α
F(z) = I
1 − αz −1
con α = 0.35 como sugiere Garcia and Morari (1985). Se asume en estos casos
Gp (z) = G̃p (z), para los fines de simulación.

C) Proponemos en este caso trabajar directamente sobre el modelo continuo en el domi-


nio de Laplace. En este caso, se sugiere la siguiente factorización:
 12.8 −18.9 
16.7s+1 21.0s+1
G̃−
p (s) =
 , G̃+
p (s) = I
6.6 −19.4
10.9s+1 14.4s+1

D) Proponemos seguir trabajando sobre el modelo continuo. En este caso, se sugiere la


siguiente factorización:
 12.8 
16.7s+1 0  
− + 2 −1
G̃p (s) =   , G̃p (s) = I, Λ(Gp ) =
−19.4 −1 2
0 14.4s+1

Notar que las factorizaciones C) y D) no garantizan Gp (s) = G̃p (s), es decir existe
un error planta modelo. La factorización C) selecciona la parte invertible de Gp (s),
con interacción completa (full), sin considerar la información de los retardos. Por su
parte, la factorización D) selecciona solo la parte invertible de Gp (s) ubicada en la
diagonal principal (en relación con el apareamiento sugerido por Λ(Gp )) y también
no considera ninguna información respecto de los retardos existentes. Evidentemen-
te esta última parametrización producirá una estructura de control descentralizada.
Debido al error planta-modelo, las factorizaciones C) y D) necesitan ser evaluadas
según el Teorema 4.5.2 para garantizar la existencia de una ajuste del
 filtro que esta-

bilice el lazo cerrado. En este caso tenemos que los autovalores λi Gp (0)G̃p (0) −1

79
4.5. Control por modelo interno (IMC)

0.8 0.6

0.7
0.5

0.6

0.4
0.5
y1

y2
0.4 0.3

0.3
0.2
Setpoint Setpoint
0.2 A A
B 0.1 B
0.1 C C
D D
0 0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100
Tiempo [min] Tiempo [min]

(a) Salida y1 - Servo (b) Salida y2 - Servo


0.6 0.9
Setpoint Setpoint
A 0.8 A
0.5
B B
C C
0.7 D
0.4 D

0.6
0.3
0.5
y1

y2

0.2
0.4
0.1
0.3

0
0.2

−0.1 0.1

−0.2 0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100
Tiempo [min] Tiempo [min]

(c) Salida y1 - Regulador (d) Salida y2 - Regulador

Figura 4.6: Control IMC MIMO - Diferentes factorizaciones

son: C) [1, 1] y D) [1.70, 0.29], garantizando la estabilidad/robustez con esta factori-


zación. En este caso la robustez se logra con un filtro pasa bajo y los controladores
toman la forma Gimc (s) = G̃− −1
p (s) F(s), siendo siendo

F(s) = diag [1/(τf1 s + 1), 1/(τf2 s + 1)]

donde τfj se eligen de la siguiente forma:

τfj > máx θij , j = 1, . . . , nl


i

ya que no se puede pretender un tiempo de respuesta menor a los retardos máximos


existentes.
Analizando Gp (s) vemos que para el canal de entrada número uno resulta máxi θi1 =
7 y para su correspondiente canal de entrada dos se tiene que máxi θi2 = 3. En este
caso se selecciona τf1 = 12 y τf2 = 8.

Los cuatro controladores fueron implementados y simulados dinámicamente como se


muestra en la Fig. 4.6. Cada controlador es identificado con A, B, C y D, en relación

80
4.6. Limitaciones en el rendimiento

a su etapa de diseño en este ejemplo. Las Figs. 4.6(a) y 4.6(b) muestran el compor-
tamiento servo con cambios em los setpoints de 0.75 para y1 y de 0.5 para y2 . En las
Figs. 4.6(c) y 4.6(d) se muestra el comportamiento regulador cuando la perturbación cam-
bia ∆d = +0.34. Los cambios se tomaron según lo sugiere Garcia and Morari (1985) y
se proponen en el instante t = 10 minutos. Podemos observar, como dijimos anterior-
mente, que el diseño “A” (basado en el Teorema 4.5.1) presenta el mejor rendimiento.
El diseño “B” (basado en la Ec. 4.27), por ser una estrategia conservadora, presenta un
comportamiento extremadamente retrasado en ambas salidas para el caso servo. El caso
“C” (modelo full sin información del retardo) y el caso “D” (modelo descentralizado sin
información del retardo) presentan comportamientos suaves y con un rendimiento menor
a los casos anteriores ya que las constantes de tiempo del filtro debieron ajustarse de forma
adecuada para garantizar la robustez a incertidumbres.

4.6. Limitaciones en el rendimiento


En sistemas MIMO, las perturbaciones, los ceros en el semiplano derecho, los polos en
el semiplano derecho y los retardos poseen direcciones asociadas con ellos. Esto hace que
analizar sus efectos separadamente sea una tarea compleja (Skogestad and Postlethwaite,
2005).
Definamos algunas direcciones de interés para el proceso definido con Gp (s) y Gd (s)
(ver Apéndice A):
yz : dirección de salida de un cero en el semiplano derecho,

yp : dirección de salida de un polo en el semiplano derecho,

yd : dirección de salida de una perturbación,

ui : i-ésimo vector singular de la planta (en esta sección u no refiere a la entrada),


la dimensión de estos vectores es nl × 1, donde nl es el número de salidas. Los vectores yz
y yp representan un dirección fija a un determinado valor, s = z y s = p, respectivamente.
Los vectores yd (s) y ui (s) pueden ser evaluados en un rango frecuencial, donde s = jw.
Todos los vectores poseen norma unitaria, i.e. || · ||2 = 1.
También asumimos que los modelos del proceso están normalizados como definimos en
la Sección 1.3. Entonces el error en términos de estas variables resulta:

e(jw) = ysp (jw) − y(jw) = Ysp ỹsp (jw) − Gp (s)u(jw) − Gd (jw)d(jw)

donde para cada frecuencia w tenemos que ||ỹsp (jw)||max ≤ 1, ||u(jw)||max ≤ 1 y ||d(jw)||max ≤
1, y el objetivo de control es obtener ||e(jw)||max ≤ 1. Donde || · ||max es el valor máximo
de las componentes del vector a una dada frecuencia.

4.6.1. Restricciones sobre las matrices de sensibilidad


De la igualdad S(jw) + T(jw) = I y de las propiedades de los valores singulares (ver
Skogestad and Postlethwaite (2005)) podemos escribir que

|1 − σ (S(jw))| ≤ σ (T(jw)) ≤ 1 + σ (S(jw))


(4.29)
|1 − σ (T(jw))| ≤ σ (S(jw)) ≤ 1 + σ (T(jw))

81
4.6. Limitaciones en el rendimiento

Esto demuestra que no podemos tener a S(jw) y a T(jw) simultáneamente tomando un


valor pequeño. Además, σ (S(jw)) posee un valor elevado sı́ y solo sı́ σ (T(jw)) también
lo tiene.

Restricciones de interpolación
Si Gp (s) tiene un cero en el semiplano derecho en s = z con dirección de salida yz , en-
tonces para garantizar la estabilidad interna del sistema retroalimentado (ver Apéndice A)
se deben cumplir las siguientes restricciones de interpolación,

yzT T(z) = 0, yzT S(z) = yzT (4.30)

En palabras, la Ec. 4.30 nos dice que T tiene que tener un cero en el semiplano derecho en
la misma dirección que el cero de Gp y que S tiene un autovalor unitario correspondiente
con el autovector izquierdo yz .
Si Gp (s) tiene un polo en el semiplano derecho en s = p con dirección de salida yp , en-
tonces para garantizar la estabilidad interna del sistema retroalimentado (ver Apéndice A)
se deben cumplir las siguientes restricciones de interpolación,

S(p)yp = 0, T(p)yp = yp (4.31)

4.6.2. Controlabilidad funcional


Considere un proceso Gp (s) con ny salidas, nu entradas y r es el rango de Gp (s).
Para controlar las ny salidas de forma independiente se debe cumplir que r = ny . Este
concepto se originó en los 70 y en Skogestad and Postlethwaite (2005) se sugiere la siguiente
definición formal,
Definición 4.6.1 (Controlabilidad funcional). Un sistema Gp (s) de ny × nu es funcio-
nalmente controlable si el rango normal de Gp (s), denotado por r, es igual al número de
salidas ny . Es decir, Gp (s) posee rango completo por filas. Un sistema no es funcional-
mente controlable si r < ny . El criterio de control es poder controlar las ny salidas.
El rango de Gp (s) implica evaluar a todas la frecuencias s, salvo un número finito de
singularidades dadas por los ceros de Gp (s). Una planta es funcionalmente no controlable
si σny (Gp (jw)) = 0, ∀w. Una evaluación de cuan cerca se encuentra un proceso de no ser
funcionalmente controlable se puede cuantificar mediante σny (Gp (jw)), que para el caso
especial de que ny ≤ nu resulta σny (Gp (jw)) = σ(Gp (jw)).
En la mayorı́a de los casos la no controlabilidad funcional es una propiedad estructural
y no depende de los parámetros del sistema y habitualmente puede evaluarse desde un
gráfico de causa-efecto. Un casó trivial es cuando ninguna de las entradas ui afectan a una
salida particular yj , lo cual se evidencia por una columna completa de ceros en Gp (s).
Otro ejemplo es cuando hay menos entradas que salidas, ny > nu .
Si un proceso no es funcionalmente controlable, i.e. r < ny , entonces hay ny − r
direcciones de salida, denotadas por y0 , las cuales no serán afectadas. Estas direcciones
pueden variar con la frecuencia y tendremos (al igual que el concepto de un cero):

y0T (jw)Gp (jw) = 0

Si realizamos una SVD de Gp (jw), las direcciones no controlables de las salidas las
y0 son las últimas ny − r columnas de la matriz U(jw) de la descomposición. Analizando
estas direcciones se puede decidir si es aceptable mantener ciertas salidas no controladas
o si es necesario incorporar actuadores adicionales para incrementar el rango de Gp (s).

82
4.6. Limitaciones en el rendimiento

4.6.3. Limitaciones impuestas por retardos


Sea θij el retardo existente en la componente ij de Gp (s), entonces la cota inferior de
tiempo de respuesta para la i-ésima salida esta dado por el menor retardo existente en la
fila i de Gp (s), es decir
θimin = mı́n θij (4.32)
j

4.6.4. Limitaciones impuestas por ceros


Como vimos en la Sección 4.5 el diseño de controladores basados en la inversa del
modelo se ve afectado por dos inconvenientes principales: 1- los retardos, que generan con-
troladores no realizables y 2- los ceros en el semiplano derecho, que producen inestabilidad.
Los ceros (o ceros de transmisión) de un proceso multivariable Gp (s) se definen como
aquellos valores de s donde Gp (s) disminuye su rango, si lo comparamos con el rango
normal (ver Apéndice A). Entonces, recordando que la expresión de la inversa del proceso
Gp (s) era,
adj (Gp (s))
Gp (s)−1 =
det (Gp (s))
estos ceros están asociados con los polos de Gp (s)−1 , en otras palabras, con los ceros de
“det (Gp (s))”. Entonces, los ceros del semiplano derecho de un proceso MIMO producirán
polos inestables de su inversa, limitando la aplicación a controladores basados en modelo,
i.e. limitaciones en el ancho de banda efectivo del controlador (Bequette, 2002; Skogestad
and Postlethwaite, 2005).

Ejemplo 4.6.1 (Ceros de transmisión). Consideremos el siguiente proceso de dimensión


2 × 2,  
s+3 2 1
Gp (s) =
3 1 (s + 1)(s + 2)
p
claramente se puede identificar que para s1 = −3 la componente g11 (−3) = 0, indicando
que hay un cero en este elemento y u1 no posee efectos sobre y1 a esta frecuencia (s = jw).
Pero s1 no es un cero de transmisión, ya que “rango (Gp (s1 )) = 2”.
Analicemos ahora la expresión del determinante del sistema

s−3
det (Gp (s)) =
(s + 1)2 (s + 2)2

se puede observar que el cero de transmisión z = 3 produce que “det (Gp (z)) = 0” y por
lo tanto “rango (Gp (z)) = 1”, corroborando esta situación.
Si analizamos también la expresión de la inversa,

(s + 1)2 (s + 2)2
 
−1 1 −2
Gp (s) =
−3 s + 3 s−3

vemos que el cero del semiplano derecho en z = 3 de Gp (s) produce un polo inestable en
Gp (s)−1 .

83
4.6. Limitaciones en el rendimiento

4.6.5. Limitaciones impuestas por perturbaciones


En el caso de sistemas SISO vimos que perturbaciones rápidas y de gran valor requieren
un control preciso y con gran ancho de banda. Resultados similares se pueden aplicar a
sistemas MIMO, pero otra vez las cuestiones de la direccionalidad es importante.
Recordando la Ec. 4.4, considerando en este caso ysp (s) = 0, los modelos escaldos
y |di (jw)| = 1. Donde di (s) es una componente “escalar” del vector de perturbaciones
d(s) = [d1 (s), . . . , di (s), . . . , dnd (s)]. Consideremos además que las salidas también fueron
escaladas de forma tal de que el rendimiento se evaluará en función de ||e(jw)||2 ≤ 1, ∀w,
donde e(s) = −S(s)gid (s)di (s), entonces:
 
||e(jw)||2 = ||S(jw)gid (jw)||2 = σ S(jw)gid (jw) ≤ 1, ∀w (4.33)

siendo gid (s) = [g1,i


d (s), . . . , g d (s)]T la i-ésima columna de G (jw). Notar que la desigual-
ny ,i d
dad de la Ec. 4.33 se cumple sı́ y solo sı́ ||S(jw)gid (jw)||∞ ≤ 1.
Si utilizamos las propiedades de los valores singulares y la norma de vectores, podemos
expresar la Ec. 4.33 alternativamente como:

σ (S(jw)) ||gid (jw)||2 ≤ ||S(jw)gid (jw)||2 ≤ σ (S(jw)) ||gid (jw)||2 (4.34)

4.6.6. Limitaciones impuestas por restricciones de entrada


Las restricciones sobre las VMs pueden limitar la habilidad para rechazar perturbacio-
nes y seguir trayectorias de referencia. A continuación se derivan algunos resultados para
el caso de perturbaciones. El caso de seguimiento de setpoint se puede obtener fácilmente
reemplazando −Gd (s) por Ysp (s).
Para sistemas MIMO, la elección de la norma vectorial para medir las magnitudes en un
vector de señales (en cada frecuencia) puede producir algunas diferencias en los resultados.
La norma máximo vectorial, || · ||max , es la elección más habitual cuando consideramos
saturaciones. De todas formas, por conveniencia matemática utilizaremos la norma 2,
|| · ||2 (norma Euclidiana). En la mayorı́a de los casos la diferencia existente entre estas
normas es de mı́nima importancia práctica. Notar que para un vector a de dimensión m×1

es ||a||max ≤ ||a||2 ≤ m||a||max (Skogestad and Postlethwaite, 2005).

Entradas para control perfecto


La pregunta que nos hacemos en este caso es: ¿Podemos rechazar la perturbación
mientras cumplimos con ||u(jw)|| ≤ 1?. Para responder esta pregunta primero debemos
definir el conjunto de perturbaciones posibles y entradas admisibles.
Pensemos en un sistema cuadrado, entonces la entrada necesaria para rechaza de forma
perfecta las perturbaciones es u(jw) = −Gp (jw)−1 Gd d(jw). Consideremos el caso de una
perturbación escalar (Gd (jw) es un vector gd (jw)) y el peor escenario de perturbación
|d(jw)| = 1, entonces las saturaciones en las VMs se evitan si,

||u(jw)||max = ||Gp (jw)−1 gd (jw)||max ≤ 1, ∀w

Para el caso de perturbaciones simultáneas (Gd una matriz) tenemos,

||u(jw)||max = ||Gp (jw)−1 Gd (jw)||i∞ ≤ 1, ∀w

donde || · ||i∞ es la norma infinito inducida, i.e. máxima suma por filas.

84
4.6. Limitaciones en el rendimiento

Se recomienda como análisis preliminar, considerar las perturbaciones de forma indi-


vidual y analizando como evolucionan las componentes de Gp (jw)−1 Gd (jw) a lo largo
de la frecuencia. Esto nos otorgará información acerca de cuál es la entrada con más
posibilidades de saturar y cuál es la perturbación más problemática.
Considerando ahora la norma 2 y que Gp posee rango pleno (todas las salidas pueden
controlarse perfectamente) entonces la magnitud de las VMs para rechazo perfecto de
una perturbación individual es ||u(jw)||2 = ||Gp (jw)−1 gd (jw)||2 ≤ 1 y en el caso de
perturbaciones combinadas ||Gp (jw)−1 Gd (jw)||i2 = σ Gp (jw)−1 Gd (jw) ≤ 1.
El caso de seguimiento de setpoint se puede obtener fácilmente reemplazando Gd (s)
por Ysp (s).

Entradas para control aceptable


Supongamos que ỹsp (jw) = 0 (setpoints nulos) y consideremos la respuesta e(jw) =
−Gp (jw)u(jw) − Gd (jw)d(jw). Entonces, en este caso queremos abordar el siguiente
interrogante: ¿Es posible obtener ||e(jw)|| ≤ 1, para alguna ||d(jw)|| ≤ 1 usando las
entradas con ||u(jw)|| ≤ 1?
Este problema puede abordarse desde diferentes puntos de vista:
Condiciones exactas: en este caso se presenta la formulación para obtener la mı́nima
entrada requerida (Skogestad and Postlethwaite, 2005),

umin = mı́n ||u||max , tal que ||Gp u + gd d||max ≤ 1, |d| = 1


u

con la condición umin < 1, ∀w para evitar saturación de las entradas.


Si Gp y gd son matrices de ganancias de estado estacionario (s = 0), el problema
anterior se puede formular como una programación lineal (LP).

Condiciones aproximadas: a cada frecuencia la SVD del proceso produce Gp =


UΣVT y cada valor singular debe cumplir con

σi (Gp ) ≥ |uT d d
i g | − 1, a las frecuencias donde |ui g | > 1

para que ||e||max ≤ 1, donde ui es el i-ésimo vector singular de salida de Gp . De-


mostración en Skogestad and Postlethwaite (2005).
Este tipo de análisis genera información acerca de que perturbación produce proble-
mas en la saturación de las VMs, estableciendo las bases de un potencial rediseño.
Podemos identificar en que dirección i la ganancia de la planta es demasiado pequeña.
Analizando los vectores singulares de entrada, vi , podemos definir que actuadores
deberı́an ser rediseñados (para más energı́a de control) y analizando los vectores
singulares de salida, ui , podemos identificar en que salidas deberı́amos reducir los
requisitos de rendimiento.

Ejemplo 4.6.2 (Efecto de perturbaciones sobre las entradas). Consideremos un proceso


de (2 × 2) con dos perturbaciones, cuyas matrices de estado estacionario normalizadas
son (Skogestad and Postlethwaite, 2005):
   
87.80 −86.40 7.88 8.81
Gp = 0.5 Gd =
108.20 −109.60 11.72 11.19

85
4.6. Limitaciones en el rendimiento

Este modelo representa una columna de destilación siendo sus salidas la composición de
sus productos, el reflujo y el calor de fondo como entradas y la tasa y la composición de
la alimentación como perturbaciones (ambas con un cambio del 20 %).
Realizando una SVD de Gp = UΣVT obtenemos,
     
−0.6246 −0.7809 −0.7066 −0.7077 98.6 0
U= V= Σ=
−0.7809 0.6246 0.7077 −0.7066 0 0.7

y podemos realizar el siguiente análisis:

Debido a que σ = 0.7, menor que uno, puede existir una pérdida de control en algunas
direcciones y/o problemas de saturación en las entradas.

El número de condición γ (Gp ) = σ/σ = 141.7 es elevado, pero es importante notar


aquı́ que este valor principalmente se debe a un elevado valor de σ, más que a un
valor extremadamente bajo de σ.

Analizaremos ahora el efecto producido por las perturbaciones sobre las entradas y los
potenciales problemas de saturación existentes con cada método mencionado anteriormen-
te.

a- Control perfecto (e = 0): las entradas necesarias en este caso para rechazar de forma
perfecta el efecto de las perturbaciones es:
 
−1 −1.09 −0.009
u = Gp Gd =
−1.29 −0.213

se puede observar que el rechazo perfecto de la perturbación d1 = 1 requiere una


entrada u = [−1.09 − 1.29]T con ambas componentes mayores que 1 en magnitud.
Esto indica que control perfecto de esta perturbación no es posible sin violar las
restricciones de entrada. Por otro lado, la perturbación d2 = 1 se puede rechazar
perfectamente sin saturar las entradas ya que u = [−0.009 − 0.213]T .

b- Control aceptable (||e||max ≤ 1): utilizaremos el requisito aproximado presentado


anteriormente (σi (Gp ) + 1 ≥ |uTi gd |, donde ui es el i-ésimo vector singular de
salida de Gp ) para estado estacionario:
 
14.08 14.24
UT Gd =
1.17 0.11

el criterio sugiere que cada magnitud del elemento de la i-ésima fila de UT Gd debe
ser menor que σi (Gp )+1 para evitar saturaciones en las entradas. En la dirección de
la mayor ganancia vemos que tanto el elemnto 14.08, ası́ como el 14.24 son mucho
menores que σ1 (Gp ) + 1 = 98.6 + 1 = 99.6. En la dirección de la ganancia más
baja tenemos que las componentes 1.17 y 0.11 también cumplen con el criterio ya
que σ2 (Gp ) + 1 = 0.7 + 1 = 1.7. En este último caso el criterio se cumple con un
márgen mucho menor. Como conclusión, el criterio sugiere que se puede obtener un
control aceptable para ambas perturbaciones, pero prestando especial atención a la
perturbación d1 la cual aparece como la más conflictiva.

86
4.6. Limitaciones en el rendimiento

4.6.7. Limitaciones impuestas por incertidumbres


La presencia de incertidumbres requiere la utilización de retroalimentación en lugar de
control en avance si queremos lograr un rendimiento aceptable. La reducción de la sensi-
bilidad con respecto a la incertidumbre se logra con retroalimentación de alta ganancia,
pero para todo sistema real tenemos una frecuencia de cruce donde la ganancia de lazo
cae por debajo de la unidad y la presencia de incertidumbre en este rango frecuencial pude
generar una rendimiento muy pobre o incluso la inestabilidad. Estas cuestiones están pre-
sente tanto en casos SISO como MIMO. De todas formas, con los sistemas MIMO existe
un problema adicional relacionado con la incertidumbre asociada con la direccionalidad
de la planta (Skogestad and Postlethwaite, 2005).

Incertidumbre de entrada y salida


En la práctica la diferencia entre la planta perturbada G∗p (s) y la planta modelo Gp (s)
es causada por un numero diferente de fuentes. En esta sección nos focalizaremos en
incertidumbre de entrada y de salida en forma multiplicativa (relativa), es decir:

Incertidumbre de salida: G∗p (s) = (I + EO (s)) Gp (s)


(4.35)
Incertidumbre de entrada: G∗p (s) = Gp (s) (I + EI (s))

Estas formas de incertidumbre pueden verse parecidas, pero veremos que sus efectos a
los fines de control pueden ser bastante diferentes. Si todos los elementos de las matrices
EI o EO no son nulos entonces tenemos una “incertidumbre completa” (no estructurada).
En mucho casos, la fuente de incertidumbre se encuentra en los canales individuales de
entrada o salida. En este caso, las matrices EI o EO tienen estructura diagonal, como por
ejemplo,
EI (s) = diag (ǫ1 (s), ǫ2 (s), · · · , ǫnu (s)) (4.36)
Es importante resaltar que este tipo de incertidumbre diagonal de entrada está siempre
presente en sistemas reales.

Incertidumbre y retroalimentación
Para ilustrar los beneficios del control por retroaliemntación en la reducción de la
sensibilidad respecto a incertidumbres, analizaremos el efecto de la incertidumbre de salida
en el caso de seguimiento de setpoint.

Control en avance: sea la función de transferencia nominal del controlador en avance


y(s) = Tr (s)ysp (s), siendo Tr (s) = Gp (s)Gcr (s), con Gcr (s) el controlador en avan-
ce. Idealmente, Tr (s) = I en el rango frecuencial donde el controlador es efectivo.
Suponiendo ahora error de modelado, T∗r (s) = G∗p (s)Gcr (s), entonces la diferencia
entre las respuestas es:

y∗ (s) − y(s) = (T∗r (s) − Tr (s)) ysp (s)


= G∗p (s) − Gp (s) Gp (s)−1 Tr (s)ysp (s)


= EO (s)Tr (s)ysp (s)


= EO (s)y(s)

es decir, el error relativo es igual al error de la incertidumbre multiplicativa de salida.

87
4.6. Limitaciones en el rendimiento

Control por retroalimentación: la función nominal de transferencia en este caso re-


sulta y(s) = T(s)ysp (s), con T(s) = L(s) (I + L(s))−1 la función de sensibilidad
complementaria. Idealmente, T(s) = I en el rango frecuencial donde el controlador
es efectivo y en este caso el error queda:

y∗ (s) − y(s) = (T∗ (s) − T(s)) ysp (s)


= S∗ (s)EO (s)T(s)ysp (s)
= S∗ (s)EO (s)y(s)

se puede observar que el efecto de la incertidumbre se reduce en un factor de S∗ (s)


con respecto al caso de control en avance (ver Skogestad and Postlethwaite (2005)).
Es importante recordar que S∗ (s) posee una baja ganancia en el rango frecuencial
donde el control es efectivo.

Incertidumbre elemento a elemento

La RGA es una buena herramienta para cuantificar la incertidumbre elemento a ele-


mento en la matriz Gp . En efecto, considere la matriz RGA, Λ(Gp ), y tengamos en cuenta
el elemento ij de dicha matriz representado por λij , entonces resulta el siguiente teorema:

Teorema 4.6.1. La matriz Gp se vuelve singular si hacemos un cambio relativo de −1/λij


∗ = g (1 −
en su ij-ésimo elemento, esto es, si un elemento individual se modifica como gij ij
1/λij ). Demostración en Skogestad and Postlethwaite (2005).

Por lo tanto, matrices RGA, Λ(Gp ), con elevados valores en sus elementos indican
que Gp puede volverse singular con pequeños valores de incertidumbre relativa en sus
elementos.

Condiciones de estado estacionario para control integral

El control por retroalimentación reduce la sensibilidad a incertidumbre de modelado a


las frecuencias donde la ganancia de lazo es elevada. Especı́ficamente, con in controlador
con acción integral podemos obtener error de seguimiento nulo en estado estacionario, aún
cuando el error de modelado sea elevado y mientras el signo del proceso, det(Gp (0)), no
cambie. Esta afirmación aplica a procesos estables, o de forma más general, a procesos
donde el número de polos inestables no cambian.

Teorema 4.6.2. Sea np y np* el número de polos inestables a lazo abierto (excluyendo
polos en el origen s = 0) de Gp (s)Gc (s) y G∗p (s)Gc (s), respectivamente. Asumamos que el
controlador Gc (s) es tal que Gp (s)Gc (s) posee acción integral en todos los canales y que
las funciones de transferencia de Gp (s)Gc (s) y G∗p (s)Gc (s) son estrictamente propias.
Entonces si,
det(G∗p (0))

< 0 para (np − np* ) par (incluso cero)
(4.37)
det(Gp (0)) > 0 para (np − np* ) impar

entonces, al menos ocurre alguna de las dos inestabilidades siguientes: 1- el sistema a lazo
cerrado con retroalimentación negativa y ganancia de lazo Gp (s)Gc (s) es inestable. 2- el
sistema a lazo cerrado con retroalimentación negativa y ganancia de lazo G∗p (s)Gc (s) es
inestable. Demostración en Skogestad and Postlethwaite (2005).

88
4.7. Resumen: controlabilidad entrada-salida

4.7. Resumen: controlabilidad entrada-salida


El siguiente procedimiento asume que la decisión acerca de las VMs y VCs ya fue
tomada y queremos analizar Gp (s) para cuantificar que rendimiento de control podemos
esperar de este proceso.
Los diferentes métodos y estrategias para definir las VMs, las VCs, el apareamiento
entre estos conjuntos, las diferentes estructuras del controlador, etc. son temas que se
abordarán en el próximo capı́tulo.
Un tı́pico análisis de controlabilidad MIMO se puede resumir como:

Escalar o normalizar las variables manipuladas, controladas, de perturbación y de


referencia (según lo expuesto en la Sección 1.3) para obtener el modelo normalizado
y(s) = Gp (s)u(s) + Gd (s)d(s). Chequear que el modelo sea una realización mı́nima.

Chequear la controlabilidad funcional. Inicialmente, para poder controlar ny salidas


independientemente necesitamos al menos contar con nu = ny variables manipula-
das. En segunda instancia, tenemos que chequear que el rango de Gp (jw) sea igual
al número de salidas, i.e. σny (Gp (jw)) 6= 0. Si el proceso no es funcionalmente con-
trolable, calcule la dirección de salida para la cual la planta presenta ganancia cero.
De esta forma obtenemos información de la fuente del problema.

Evaluar polos y ceros de Gp (s). Analizar sus direcciones.

Calcular la respuesta en frecuencia Gp (jw) y su RGA. Procesos con valores elevados


en sus componentes en la zona de la frecuencia de cruce son difı́ciles de controlar.

El mı́nimo valor singular, σ (Gp (jw)), es una herramiento útil para analizar la con-
trolabilidad. Este valor singular es deseable que sea tan grande como se pueda en el
rango frecuencial donde el control es efectivo. Un valor cercano a cero de este valor
singular indica que existen direcciones donde el control no es efectivo, i.e. no existe
ganancia.

Incertidumbre. Si el número de condición, γ(Gp ), es pequeño entonces no se esperan


problemas particulares con las incertidumbres. Si los valores de los elementos de la
RGA son elevados, entonces esto es un indicio de que tendremos fuertes problemas
de sensibilidad a incertidumbres.

4.8. Estabilidad de los sistemas retroalimentados


4.8.1. Estabilidad interna
Para comprobar la estabilidad a lazo cerrado, es habitual evaluar una de las funciones
de transferencia de sensibilidad, por ejemplo S(s). En este caso asumimos que no existe
cancelaciones internas entre polos y ceros no mı́nima fase entre la planta y el controlador.
Consideremos la estructura de control de la Fig. 4.7 con ysp (s) = 0, entonces podemos
escribir que:

u(s) = [I + Gc (s)Gp (s)]−1 du (s) − [I + Gc (s)Gp (s)]−1 Gc (s)dy (s)


(4.38)
y(s) = [I + Gp (s)Gc (s)]−1 Gp (s)du (s) + [I + Gp (s)Gc (s)]−1 dy (s)

y por lo tanto naturalmente aparece el siguiente teorema:

89
4.8. Estabilidad de los sistemas retroalimentados
replacemen
du (s) dy (s)
ysp (s) e(s) + + y(s)
Gc (s) Gp (s)
+ + u(s) +
-

Figura 4.7: Sistema de control por retroalimentación unitaria de salida

Teorema 4.8.1 (Estabilidad interna). El sistema retroalimentado de la Fig. 4.7 es “es-


table internamente” sı́ y solo sı́ las cuatro funciones de transferencia de la Ec. 4.38 son
estables (Skogestad and Postlethwaite, 2005).

Si no permitimos cancelaciones polo-ceros del semiplano derecho entre las componentes


del sistema tales como Gp (s) y Gc (s), entonces la estabilidad de una de las funciones de
transferencia a lazo cerrado de la Ec. 4.38 implica la estabilidad de las restantes.

4.8.2. Controladores estabilizantes


En esta sección introduciremos el concepto de “parametrización Q” o “parametrización
de Youla” de todos los controladores estabilizantes para el proceso. Aquı́ se entiende por
“controladores estabilizantes” como todos los controladores que nos brindan estabilidad
interna a lazo cerrado.

Teorema 4.8.2. Consideremos una planta Gp (s) estable, entonces la estructura de control
con retroalimentación negativa de la Fig. 4.7 es internamente estable, sı́ y solo sı́ Q(s) =
Gc (s) [I + Gp (s)Gc (s)]−1 es estable (Skogestad and Postlethwaite, 2005).

Resolviendo entonces para el controlador, obtenemos que la parametrización de todos


los controladores estabilizantes de la planta Gp (s) es:

Gc (s) = [I − Q(s)Gp (s)]−1 Q(s) = Q(s) [I − Gp (s)Q(s)]−1 (4.39)

donde el “parámetro” Q(s) es cualquier función de transferencia estable. Si solo se permi-


ten controladores propios entonces Q(s) debe ser también propio.
La parametrización en la Ec. 4.39 es idéntica a la estructura de control IMC de la
Ec. 4.18, donde Q(s) = Gimc (s) y G̃p (s) = Gp (s).

4.8.3. Análisis frecuencial de estabilidad


Como observamos anteriormente, la estabilidad de un sistema lineal es equivalente a
que dicho sistema no tenga polos en el semiplano derecho. Este tipo de comprobación se
puede utilizar sobre sistemas a lazo abierto o cerrado. En esta sección estudiaremos la
utilización de técnicas de dominio frecuencial para derivar la estabilidad a lazo cerrado
mediante el análisis de la función transferencia de lazo abierto L(jw).

Polinomios caracterı́sticos
Consideremos el sistema a lazo cerrado de la Fig. 4.7 con dy (s) = 0 y du (s) = 0. La
función transferencia de lazo directo es L(s) = Gp (s)Gc (s) y si asumimos que posee una

90
4.8. Estabilidad de los sistemas retroalimentados

representación en espacio de estados dada por Ala , Bla , Cla y Dla , entonces:

L(s) = Cla (sI − Ala )−1 Bla + Dla (4.40)

con lo cual, la estabilidad del sistema a lazo abierto viene dada por los polos de L(s), es
decir por las raı́ces del “polinomio caracterı́stico a lazo abierto”:

φla (s) = det (sI − Ala ) (4.41)

Si asumimos que no hay cancelaciones polos-ceros del semiplano derecho entre Gp (s)
y Gc (s), entonces la estabilidad interna es equivalente por ejemplo a la estabilidad de la
función de sensibilidad S(s) = [I + L(s)]−1 . De las matrices de estado a lazo abierto se
puede obtener una representación a lazo cerrado si consideramos u(t) = ysp (t) − y(t)

ẋ(t) = Ala x(t) + Bla (ysp (t) − y(t))


(4.42)
y(t) = Cla x(t) + Dla (ysp (t) − y(t))
ası́, podemos expresar:
ẋ(t) = Alc x(t) + Blc ysp (t)
(4.43)
y(t) = Clc x(t) + Dlc ysp (t)
donde
Alc = Ala − Bla (I + Dla )−1 Cla (4.44)
En este caso entonces el “polinomio caracterı́stico a lazo cerrado” es:
 
φlc (s) = det (sI − Alc ) = det sI − Ala + Bla (I + Dla )−1 Cla (4.45)

Los polinomios caracterı́sticos de la Ec. 4.41 y de la Ec. 4.45 se pueden vincular median-
te el “operador diferencia de retorno”, I+L(s), como se muestra a continuación (Skogestad
and Postlethwaite, 2005):
φlc (s)
det (I + L(s)) = det (I + Dla ) (4.46)
φla (s)
donde det (I + Dla ) es un valor constante que no tiene significación cuando evaluamos los
polos. Notar que φlc (s) y φla (s) son polinomios de la variable s y por lo tanto sólo tienen
ceros, pero det (I + L(s)) es una función de transferencia con ceros y polos. Asumiendo que
no hay cancelaciones entre φlc (s) y φla (s), tenemos entonces que los polos a lazo cerrado
son las soluciones de:
det (I + L(s)) = 0 (4.47)

Criterio de estabilidad de Nyquist para sistemas MIMO


Consideremos el sistema con retroalimentación negativa de la Fig. 4.7 y asumamos que
no hay cancelaciones de polos y ceros en la función de tranferencia de lazo directo L(s),
i.e. es decir L(s) no contiene modos ocultos inestables. Entonces el teorema de Nyquist
generalizado (MIMO), el cual nos permite evaluar la estabilidad a lazo cerrado desde la
respuesta en frecuencia de L(jw) se puede expresar como:
Teorema 4.8.3 (Nyquist MIMO). Asumamos que nla p denota el número de polos ines-
tables a lazo abierto de L(s). El sistema a lazo cerrado con retroalimentación negativa y
función de transferencia de lazo directo L(s) es estable, sı́ y solo sı́ el gráfico de Nyquist
de det (I + L(s)) (Skogestad and Postlethwaite, 2005):

91
4.8. Estabilidad de los sistemas retroalimentados

1. encierra nla
p veces el origen en sentido contrario a las agujas del reloj, y

2. no pasa a través del origen.

El gráfico de Nyquist de det (I + L(s)) significa la imagen de det (I + L(s)) cuando s


recorre el “contorno D” de Nyquist en sentido horario. Este “contorno D” esta formado
por el eje imaginario y un semicı́rculo infinito en el semiplano derecho del plano complejo.
Este contorno no debe contener polos de L(s) sobre el eje imaginario y para ello se realizan
pequeños semicı́rculos para evitar estos puntos.
Para el caso de sistemas reales, L(s) es propia y por lo tanto para realizar el gráfico
de det (I + L(s)) a lo largo del contorno D sólo debemos considerar s = jw a lo largo del
eje imaginario. Esto se debe a que lı́ms→∞ L(s) = Dla es finito y en el lı́mite (s = ∞)
det (I + L(s)) converge a det (I + Dla ), que es un punto en el eje real.

92
Capı́tulo 5
Control de plantas completas

Los procesos industriales involucran diferentes operaciones y numerosos tipos de equi-


pamiento, trabajando a diferentes presiones y temperaturas. Esto deja en evidencia la
complejidad de estas plantas, las cuales son por lo general de grandes dimensiones. La
operación segura y rentable de este tipo de procesos requiere que ciertas condiciones ope-
rativas se garanticen aún cuando existan perturbaciones (medidas o no medidas). Por lo
tanto, es indispensable contar con algún tipo de sistema de supervisión y control para
garantizar este comportamiento.
En la actualidad, los procesos industriales poseen complejas interacciones entre los
equipos debido a la creciente tendencia en la integración de energı́a y materia y a los
requisitos de seguridad y operación óptima. Por lo tanto, resulta crucial una perspectiva
de planta completa (plantwide) para el diseño y sı́ntesis de sistemas de control. Esto a
su vez ha llevado al desarrollo de control de plantas completas (plantwide control, PWC)
como una subárea dentro del amplio campo de trabajo de control de procesos.

5.1. Introducción
La mayorı́a de las teorı́as de control asumen que la estructura de control viene dada
desde un principio. Por lo tanto, no responden algunas preguntas básicas que un ingeniero
de control responde regularmente en la práctica: – ¿qué variables deberı́an controlarse?, –
¿qué variables deberı́an medirse?, – ¿cuáles entradas deberı́an manipularse? y – ¿cuál es el
vı́nculo que deberı́a existir entre dichos conjuntos?. En un planta completa, hay numerosas
opciones para elegir VCs y VMs y su apareamiento, con lo cual el diseño de estructuras
de PWC puede resultar en un problema combinatorio de grandes dimensiones. El objetivo
de este capı́tulo es brindar una introducción al diseño de control de plantas completas
(PWC).
Una revisión de los métodos existentes en la literatura de PWC, claramente identifica
tres grandes puntos de vista (Skogestad and Postlethwaite, 2005; Rangaiah and Kariwala,
2012):
Métodos basados en la heurı́stica.
Estas estrategias, las cuales son sistemáticas por naturaleza, fueron ampliamente
utilizados en numerosos casos de estudio. Se basan en el conocimiento ingenieril
profundo del proceso para definir las estructuras de control de cada equipo. La
estrategia más reconocida en el ámbito académico/industrial son los “nueve pasos”
definidos por Luyben et al. (1998). El propio W. Luyben sugiere: “... el desarrollo
de una estructura de control de planta completa para procesos complejos requiere
sólidos conocimientos de todos los conceptos fundamentales de la ingenierı́a quı́mica:

93
5.1. Introducción

transferencia de masa, transferencia de calor, termodinámica, mecánica de fluı́dos,


cinética de las reacciones y control” (Rangaiah and Kariwala, 2012).
De todas formas, para procesos de gran escala, se requieren numerosas consideracio-
nes ad-hoc para progresivamente reducir la dimensión del problema hasta alcanzar
una escala manejable. Estos inconvenientes generalmente producen diseños subópti-
mos desde el punto de vista de costos de inversión y de operación.

Estrategias basadas en teorı́a de sistemas y optimización.


El advenimiento de la potencia computacional de las últimas décadas, favoreció
una intensa investigación y desarrollo en el campo de la teorı́a de sistemas y la
programación matemática. Esta lı́nea de aplicación generó incontables propuestas
en los más variados tópicos los cuales incluyen:

• Estabilidad/controlabilidad/robustez (Grosdidier et al., 1985; Skogestad and


Morari, 1987; Yuan et al., 2011),
• Problemas de apareamiento (Bristol, 1966; He et al., 2009; Assali and McAvoy,
2010),
• Costos operativos y control auto-optimizante (Alstad and Skogestad, 2007; Mar-
chetti and Zumoffen, 2014; Zumoffen et al., 2016),
• Índices basado en desviaciones (Zumoffen, 2013, 2016; Braccia et al., 2017),
• Factor de ecoeficiencia/conceptos termodinámicos (Rangaiah and Kariwala,
2012; Munir et al., 2013),
• Combinación de estos en propuestas multi-objetivo (Downs and Skogestad,
2011; Sharifzadeh and Thornhill, 2012; Zumoffen, 2016),
• Estrategias basadas en asignación de control (Luppi et al., 2018),
• Integraciones entre diseño y control de procesos Sharifzadeh (2013); Bahakim
and Ricardez-Sandoval (2014); Braccia et al. (2018).

Los métodos anteriores sólo son una pequeña muestra del amplio campo de desarrollo
e investigación. Un análisis exhaustivo de esta sublı́nea es prácticamente imposible.

Métodos basados en la integración/hı́bridos.


De forma similar al caso anterior el advenimiento de la potencia computacional
perimitió el desarrollo de nuevos programas rigurosos de simulación de procesos
industriales tanto estáticos como dinámicos, ası́ como la integración con rutinas
especı́ficas de optimización. Estos avances tecnológicos permitieron la integración de
ciertos métodos heurı́sticos con simulaciones de procesos (Rangaiah and Kariwala,
2012; Jha and Okorafor, 2014).
Todas estas metodologı́as sugieren diferentes formas para diseñar estructuras PWC
abordando la majorı́a de las cuestiones vinculadas a control MIMO (Jha and Okorafor,
2014). Los métodos matemáticos están basados en modelos del proceso, ya sea dinámico
o estático, lineales o no lineales, por lo tanto la eficacia de estas estrategias dependen de
la precisión y disponibilidad de tales modelos. Es importante destacar que para procesos
de gran escala es realmente complejo obtener modelos orientados a control. Generalmente,
es más común trabajar con modelos de estado estacionario provenientes de la etapa de
sı́ntesis y diseño de procesos.
En este capı́tulo nos focalizaremos en algunas estrategias particulares de los métodos
basados en teorı́a de sistemas y optimización.

94
5.2. Diseño de estructuras de PWC

Programación
(semanas)

Optimización Completa
(días)

RTO Optimización Local


(horas)
VC1

MPC
Control Supervisor
(minutos)

VC2
PID Control Regulador
(segundos)

Capa de Control

Figura 5.1: Jerarquı́a de control tı́pica

5.2. Diseño de estructuras de PWC


En esta sección presentaremos el procedimiento de diseño de estructuras de PWC
sugerido por Skogestad (2004). La estrategia cubre los conceptos principales de todo diseño
de estructuras de control de plantas completas, desde cuestiones económicas hasta diseño
de lazos estabilizantes de control.

5.2.1. Capas de control y escalas temporales


Los sistemas de control de plantas completas en la práctica se descomponen en varios
subproblemas de control más simples. Esta descomposición se puede realizar en base a dos
principios fundamentales:
Control descentralizado (local): es una “descomposición horizontal” de la capa de
control basada en una separación espacial. Utilizar control local de las unidades de
proceso.
Control jerárquico: es una “descomposición vertical” basada en una separación en
función de las escalas temporales como se puede observar en la Fig. 5.1. En un pro-
ceso tı́pico tenemos las siguientes capas: 1- programación (semanas), 2- optimización
completa (dı́as), 3- optimización local (horas), 4- control supervisor (minutos) y 5-
control regulador (segundos).
Los tres niveles superiores de la Fig. 5.1 abordan la optimización económica y no serán
considerados en este caso. La idea principal en esta sección es focalizarnos en los dos

95
5.2. Diseño de estructuras de PWC

niveles más bajos: las capas de control supervisor y regulador, donde el objetivo principal
es seguir los setpoints dados por la capa superior.
Una decisión estructural importante, probablemente más importante que el diseño
del controlador, es la elección de las VCs. En la capa de control supervisor es deseable
seleccionar las VCs que sean útiles desde un punto de vista económico (CV1).
Generalmente, los controladores PID se utilizan en la capa de control regulador, donde
el objetivo principal es la estabilización de la planta (CV2). En la capa de control supervisor
se utilizan estrategias avanzadas de control, tradicionalmente se utiliza múltiples lazos PID
complementados con elementos avanzados tales como: desacopladores estáticos, elementos
de control en avance, selectores, controladores de rango dividido, y elementos de lógica.
Las últimas décadas, MPC aparece como la herramienta ideal para reemplazar a estos
elementos. En la capa de optimización local, generalmente las decisiones se toman de
forma manual, si bien existen algunas aplicaciones basadas en optimización en tiempo real
(RTO, de sus siglas en Inglés) en industrias petroquı́micas.

5.2.2. Procedimiento para diseño PWC


Este procedimiento se puede clasificar como un método hı́brido de diseño según la
clasificación realizada en la Sección 5.1. Si bien el procedimiento fue inspirado por la
propuesta de Luyben et al. (1998), en este caso se puede observar dos partes bien diferen-
ciadas: I) el análisis “desde arriba hacia abajo”, principalmente focalizado en un análisis
con información de estado estacionario y basado en la economı́a de la planta y II) “el
análisis desde abajo hacia arriba” principalmente orientado a la estabilidad del proceso y
al apareamiento de los lazos de control.
La propuesta de Skogestad (2004) consiste de los siguientes pasos:

Parte I (arriba-abajo): focalizado en operación óptima de estado estacionario.

• Paso 1: Definir los objetivos de operación (funcional costo económico y restric-


ciones)
• Paso 2: Identificar los grados de libertad en estado estacionario y determinar
las condiciones óptimas de operación en estado estacionario, incluyendo las
restricciones activas.
• Paso 3: Identificar potenciales variables medidas y seleccionar las variables pri-
marias de control (CV1). “Decisión 1”.
• Paso 4: Elegir la locación del manipulador de la tasa de producción (TPM).
“Decisión 3”.

Parte II (abajo-arriba): focalizado en la estructura de control.

• Paso 5: Seleccionar la estructura de la capa de control reguladora (estabilizante).


– Elegir la VCs estabilizantes (VC2). “Decisión 2”.
– Elegir la VMs y el apareamiento para controlar las CV2. “Decisión 4”.
• Paso 6: Seleccionar la estructura de la capa de control supervisor.
• Paso 7: Seleccionar la estructura de la capa de optimización (RTO).

El procedimiento pretende definir los pasos deseables en todo diseño de PWC, pero
es claro que cada una de las actividades involucradas puede ser todo un gran problema
en sı́ mismo. La mayorı́a de la literatura existente, algunas citadas en la Sección 5.1,
abordan generalmente un paso o un subconjunto de pasos del procedimiento debido a

96
5.3. Escenarios de control de plantas completas

la complejidad inherente. Un desarrollo minucioso de cada uno de los pasos se puede


encontrar en Skogestad (2004) o en el capı́tulo 11 de Rangaiah and Kariwala (2012).

5.3. Escenarios de control de plantas completas


Consideremos un proceso estable con ny potenciales VCs, nu VMs disponibles y nd
variables de perturbación (VPs). Asumamos que el modelo de dicho proceso viene dado
en matrices de funciones de transferencia en el dominio de Laplace Gp (s) y Gd (s), con
dimensiones ny × nu y ny × nd , respectivamente. Entonces, una de las finalidades de toda
estrategia de control de plantas completas (PWC) es lograr particionar el proceso original
como se muestra en la Ec. 5.1,

y(s) = Gp (s)u(s) + Gd (s)d(s)


Gps (s) G∗ps (s) (5.1)
      
ys (s) us (s) Gds (s)
= + d(s)
yr (s) Gpr (s) G∗pr (s) ur (s) Gdr (s)

donde los subsistemas involucrados tienen las siguiente descripción:

Gps (s) y Gds (s) forman parte del subproceso a ser controlado con dimensiones nq ×nq
y nq × nd , respectivamente.

Gpr (s) y Gdr (s) conforman el subproceso no controlado con dimensiones (ny − nq ) ×
nq y (ny − nq ) × nd , respectivamente.

G∗ps (s) y G∗pr (s) matrices remanentes con dimensiones nq × (nu − nq ) y (ny − nq ) ×
(nu − nq ), respectivamente.

siendo nq ≤ mı́n(ny , nu ) el número de variables que deben ser controladas (un subconjunto
de las potenciales VCs originales). Notar que también deben seleccionarse nq VMs, ya que
trabajaremos con sistemas de control cuadrados. Las variables us (s) son las VMs selec-
cionadas para controlar las salidas ys (s) a las trayectorias deseadas yssp (s). Las variables
de entradas remanentes ur (s) ((ny − nq ) × 1) podrı́an o no ser utilizadas para fines de
control, en este capı́tulo las supondremos fijas. Debido a que trabajaremos con modelos
normalizados, entonces ur (s) = 0. El vector de salidas yr (s) agrupa todas las variables no
controladas (VNCs).
Los potenciales escenarios de diseño de PWC están definidos por las dimensiones del
proceso ny y nu y por los requisitos de control nq = nqo + nqa . Es importante aquı́ realizar
la siguiente aclaración: nqo representa aquellas variables que deben ser controladas inde-
fectiblemente, es decir las variables definidas ad-hoc por los ingenieros de procesos (tasa
de producción, calidad del producto, etc.) y nqa es el número de variables adicionales que
podrı́an incluirse en la estructura de control para completar su diseño. En este contexto,
los potenciales escenarios se pueden dividir en cuatro casos, como se muestra en la Fig. 5.2
y cada uno de ellos representa un problema particular con una combinatoria especı́fica que
definiremos a continuación (Zumoffen, 2013, 2016):

Caso I: todas las variables de salidas necesitan ser controladas nq = ny y además ocurre
que ny < nu . Por lo tanto Gpr = G∗pr = 0 y la estrategia se convierte en una selección
óptima de nq VMs. En este contexto la dimensión del problema combinatorio (DPC)
es:
nu !
DPC =
nq !(nu − nq )!

97
5.4. RGA para procesos no cuadrados

ny nu nq
nq ≤ mı́n(ny , nu )

ny < nu ny = nu ny > nu

I VI III
nq × nq nq × nq nq × nq
ny × nu

ny × nu nq × nq
nq × nq nq × nq

ny × nu ny × nu ny × nu
II II II
Figura 5.2: Escenarios de diseño de PWC - Posibles particiones de Gp (s)

Caso II: este escenario está definido por 1 ≤ nq ≤ mı́n(ny , nu ) y la estrategia a utilizar
debe seleccionar de forma óptima tanto VMs como VCs. La DPC resulta,
nq
X ny ! nu !
DPC =
(i!(ny − i)!) (i!(nu − i)!)
i=1

Caso III: todas las VMs son utilizadas para control, nq = nu con ny > nu . Por lo tanto
G∗ps = G∗pr = 0 y la estrategia se convierte en una selección óptima de nq VCs. En
este contexto la DPC es:
ny !
DPC =
nq !(ny − nq )!

Caso VI: no se requiere selección óptima de VCs ni de VMs. La estructura de control


queda definida resolviendo el problema de apareamiento entre estos conjuntos. La
estrategia de RGA puede ser útil en este caso.

Es importante destacar que el problema de apareamiento, por ejemplo basado en


la RGA, puede involucrar otro problema combinatorio debido a diferentes posibilidades
entrada-salida. Por ello, la dimensión del problema combinatorio (DPC) de los casos I, II
y III, generalmente, será mayor a la especificada.

5.4. RGA para procesos no cuadrados


Una de las herramientas más antiguas y efectivas para seleccionar la estructura del
controlador MIMO descentralizado es la RGA, como vimos en la Sección 4.4.2. En este
caso, mostraremos algunas formas alternativas de la RGA que nos permitirán abordar el
problema de diseño de PWC de forma simple.
Los procesos no cuadrados se definen, como vimos anteriormente, como plantas indus-
triales donde ny 6= nu . La principal estrategia de diseño de estructuras de control en estos

98
5.4. RGA para procesos no cuadrados

casos es tratar de “hacer cuadrado” (squaring down) el problema de alguna forma. Esto
es, se adicionan o se quitan del análisis variables de entrada o de salida hasta obtener
un proceso cuadrado, como discutimos en la Sección 5.3. Ahora bien, adicionar salidas
innecesarias implica mayores costos de inversión y mantenimiento y desechar potenciales
VMs reduce los grados de libertad para alcanzar un determinado comportamiento.
En el “caso I” (ny < nu ) de la Sección 5.3, hay reportes que indican que un con-
trolador centralizado no cuadrado podrı́a ser beneficioso comparado con una estructura
cuadrada, debido a la redundancia de algunos actuadores. En el “caso III” (ny > nu ), este
tipo de procesos son funcionalmente no controlables, de acuerdo a lo discutido en la Sec-
ción 4.6.2, y todas las salidas no pueden ser perfectamente controladas hacia los setpoints
deseados (Khaki-Sedigh and Moaveni, 2009).
Consideremos un proceso Gp (s) con ny salidas y nu entradas, siendo en este caso
ny > nu . La idea de control perfecto que se utilizó en la Sección 4.4.2 para derivar la RGA
no es posible en este caso, i.e. el proceso no es funcionalmente controlable. Por lo tanto,
se modifica este concepto de control perfecto con la idea de minimizar el error cuadrático
medio de seguimiento en las salidas.
Retomemos la idea de controlador IMC de la Sección 4.5, en este caso con modelo
G̃p (s) y referencias ysp (s). Las salidas controladas resultan,
h  i−1
y(s) = Gp (s) Inu + Gimc (s) Gp (s) − G̃p (s) Gimc (s)ysp (s) (5.2)

donde Inu es la matriz identidad de dimensión nu × nu .


Entonces el error de seguimiento se puede expresar como,

e(s) = ysp (s) − y(s)


(5.3)
 h  i−1 
= Iny − Gp (s) Inu + Gimc (s) Gp (s) − G̃p (s) Gimc (s) ysp (s)

donde Iny es la matriz identidad de dimensión ny × ny .


Considerando error planta-modelo nulo, Gp (s) = G̃p (s), la Ec. 5.3 resulta,

e(s) = Iny − Gp (s)Gimc (s) ysp (s) (5.4)

Analizando en estado estacionario (s = 0), recordando que no hay error planta-modelo


y que el controlador está dado por la inversa del modelo,
−1 T
Gimc = G†p = GT

p Gp Gp (5.5)

donde G†p es la pseudo inversa de Moore-Penrose de la matriz Gp .


En este contexto, el error de seguimiento y el valor de las VMs en estado estacionario
resultan
 
e = Iny − Gp G†p ysp
(5.6)
u = G†p ysp

Entonces por analogı́a con la definición de la RGA se define la matriz de ganancia


relativas no cuadrada como,
 T
Λnc (Gp ) = Gp ⊗ G†p (5.7)

la cual posee las siguientes propiedades como define Khaki-Sedigh and Moaveni (2009),

99
5.4. RGA para procesos no cuadrados

La suma de cada columna es la unidad.

La suma de cada fila es un número entre cero y la unidad. Esto es una consecuencia
directa de que el proceso no es funcionalmente controlable. Es imposible error de
seguimiento nulo en estado estacionario en todas las salidas.

La RGA no cuadrada definida en la Ec. 5.7 es independiente del escalado de entrada


pero depende del tipo de escalado de salida. Se puede pensar como mı́nimo cuadrados
ponderados donde ciertas salidas poseen más relevancia que otras.

En Skogestad and Postlethwaite (2005) también se define la RGA no cuadrada. En


este caso, se consideran sistemas del tipo ny < nu y el desarrollo de la matriz de ganancias
relativas se aborda desde la óptica de la descomposición en valores singulares, i.e. utilizando
direcciones de entrada y salida. De todas formas, la conclusión es la misma que la Ec. 5.7.
En el próximo ejemplo veremos ambos casos.

Ejemplo 5.4.1 (RGA no cuadrada). Consideremos inicialmente el caso con ny = 4 y


nu = 3 de Khaki-Sedigh and Moaveni (2009), con la siguiente matriz de ganancias en
estado estacionario
 
−9.81 0.37 −11.30
 5.98 −1.99 5.24 
Gp =  
 2.38 0.02 −0.33 
−11.67 −0.18 4.48

cuya pseudo inversa es

 
−0.02 0.00 0.01 −0.06
G†p =  −0.27 −0.55 0.02 −0.05 
−0.08 −0.02 −0.01 0.05

en este caso la RGA no cuadrada y su correspondiente vector de sumas por fila resultan,

   
0.24 −0.10 0.86 1.00
 0.01 1.09 −0.10   1.00 
Λnc (Gp ) = 
 0.03
 Σf =  
0.00 0.00   0.03 
0.73 0.01 0.24 0.97

si analizamos el vector suma por filas, Σf , vemos que la salida y3 presenta el menor valor
y por lo tanto dicha variable puede ser quitada para conformar una estructura 3 × 3 con
un apareamiento entrada-salida sobre la diagonal secundaria (valores en negrita).
Analicemos ahora el caso presentado en Skogestad and Postlethwaite (2005) sobre un

100
5.4. RGA para procesos no cuadrados

proceso con ny = 5 y nu = 13 con la siguiente matriz de ganancias en estado estacionario,


 
0.79 1.15 2.66 −3.09 −0.07
 0.61 0.88 −0.11 −2.38 −0.05 
 
 1.47 −5.00 −1.33 8.86 0.18 
 
 −1.55 −0.11 −0.09 0.75 −0.06 
 
 2.57 6.94 2.20 −1.52 8.77 
 
 1.45 7.70 −0.99 −8.18 −0.26 
 
T
Gp =  0.00 0.00 0.00 0.00 0.00 
 
 0.11 −0.73 −0.20 1.26 0.02 
 
 0.35 −2.99 −0.82 5.22 0.09 
 
 −1.59 −0.96 −0.36 1.15 −8.54 
 
 
 0.00 0.00 −0.54 0.00 0.00 
 
 −0.03 −0.14 0.02 0.15 0.00 
−0.04 −0.19 0.02 0.20 0.01
en este caso tenemos,
   
0.13 −0.08 0.59 0.12 0.00 0.77

 0.07 −0.05 0.00 0.13 0.00 


 0.15 


 0.28 0.00 0.05 0.41 −0.01 


 0.73 


 0.37 −0.01 0.00 0.04 0.00 


 0.40 


 −0.06 0.90 0.21 −0.15 0.04 


 0.95 

0.17 0.40 0.14 0.14 0.01  0.85
   
  
ΛT
nc (Gp ) =  0.00 0.00 0.00 0.00 0.00  ΣT
c = 0.00
   

0.00 0.00 0.00 0.01 0.00  0.01
   
  
0.01 −0.05 0.02 0.19 0.00  0.18
   
  
0.04 −0.13 −0.04 0.12 0.95  0.94
   
  
   

 0.00 0.00 0.03 0.00 0.00 


 0.03 

 0.00 0.00 0.00 0.00 0.00   0.00 
0.00 0.00 0.00 0.00 0.00 0.00
en este caso vemos que las entradas con mayor contribución en ΣTc son: u1 , u3 , u4 , u5 y
u10 . La entrada u6 no se selecciona ya que propone el mismo apareamiento que u5 , por
ello se elije a u4 en su reemplazo. En ΛTnc se puede apreciar en negrita el apareamiento
sugerido.

Es importante tener en cuenta que si bien la RGA es una herramienta eficiente para
evaluar potenciales estructuras de control, siempre suele ser útil analizar otros indicadores,
como por ejemplo los valores singulares o la magnitud de los elementos de la RGA, para
poder concluir de forma concisa respecto de la controlabilidad de una determinada polı́tica
de control. El siguiente ejemplo muestra como se pueden obtener conclusiones erróneas.

Ejemplo 5.4.2 (Precauciones sobre la RGA no cuadrada). Consideremos la siguiente


planta con ny = 4 y nu = 2, definida por su matriz de ganancias en estado estacionario:
 
10 10
 10 9 
Gp =   2 1 

2 1

101
5.5. Desviaciones cuadráticas mı́nimas (DCM)

el objetivo es seleccionar dos salidas para diseñar una estructura de control 2 × 2 descen-
tralizada.
La RGA no cuadrada y su correspondiente suma por filas son,
   
−2.57 3.27 0.70
 1.96 −1.43   0.53 
Λnc (Gp ) = 
 0.80 −0.42 
 Σf =  
 0.38 
0.80 −0.42 0.38

la estrategia mostrada hasta el momento nos sugiere seleccionar las salidas y1 e y2 , por
tener los mayores valores en el vector suma Σf . Ahora bien, si analizamos el proceso
resultante y la RGA que esta selección nos genera vemos que,
   
10 10 −9 10
G1p = Λ G1p =

10 9 10 −9

vemos que la RGA posee valores muy elevados en sus componentes indicando que la estra-
tegia de control desarrollada sobre G1p será muy sensible a errores de modelado.
Por otro lado, si por ejemplo seleccionamos las salidas y1 e y3 , vemos que para este
nuevo proceso resulta,
   
10 10 −1 2
G2p G2p

= Λ =
2 1 2 −1

que es mucho menos sensible a incertidumbre de modelado.


Esto también se puede evaluar mediante el mı́nimo valor singular, el cual nos indi-
ca cuan
 cerca esta la matriz de su singularidad. En efecto, vemos que: σ (Gp ) = 1.04,
σ G1p = 0.51 y σ G2p = 0.69.


5.5. Desviaciones cuadráticas mı́nimas (DCM)


En esta sección presentaremos un método de diseño de PWC basado en la teorı́a de
sistemas y optimización denominado “desviaciones cuadráticas mı́nimas (DCM)”. En par-
ticular, nos focalizaremos en su reformulación como un problema de optimización mixta-
entera cuadrática (MIQP, de sus siglas en Inglés) propuesto por Braccia et al. (2017). La
metodologı́a original fué presentada en Zumoffen (2016) como un problema de optimización
mixto-entero no lineal de doble nivel (BLMINLP) estocástico con ı́ndices combinados.
La estrategia DCM representa un problema de optimización complejo basado en una
superestructura para tomar las decisiones clásicas vinculadas al diseño de PWC como:
cantidad y locación de VMs y VCs, apareamiento entre estos conjuntos, consideraciones de
estabilidad/robustez y la estructura del controlador (descentralizado, disperso o completo).
Recordando la estructura de control IMC MIMO de la Fig. 4.5 y la subdivisión definida
en la Ec. 5.1, podemos proponer la topologı́a de control IMC generalizada que se muestra
en la Fig. 5.3 para el diseño y análisis de PWC. Asumamos que los modelos vienen dados
en matrices de funciones de transferencia en el dominio de Laplace, son estables y están
normalizados según definimos en la Sección 1.3, entonces la metodologı́a DCM la podemos
subdividir en las siguientes dos grandes secciones.

102
5.5. Desviaciones cuadráticas mı́nimas (DCM)

ur (s)
G∗pr (s)
d(s)
yr (s)
Gdr (s) G∗ps (s)

Gpr (s) Gds (s)

yssp (s) eη (s) us (s) ys (s)


Gimc (s) Gps (s)

-
G̃ps (s) -
η(s)

Figura 5.3: Estructura IMC para PWC

5.5.1. Selección de VCs y VMs


Si asumimos que el controlador de la Fig. 5.3 posee acción integral, entonces en estado
estacionario (s = 0) tenemos que ys = yssp y de la estructura podemos definir:
sp sp d
us = G−1 −1
ps ys − Gps Gds d = us + us ,
sp sp d
(5.8)
yr = Gpr G−1 −1

ps ys + Gdr − Gpr Gps Gds d = yr + yr

donde usp −1 sp
s = Gps ys son los movimientos de las VMs asociados con los cambios de set-
points y uds = G−1
ps Gds d son las desviaciones de las VMs debido a los efectos de las pertur-
baciones. De forma similar las VNCs se pueden subdividir en dos efectos yrsp = Gpr G−1 sp
ps ys
y yrd = Gdr − Gpr G−1

ps Gds d.
Si consideramos que las modificaciones en los setpoints y las perturbaciones son uni-
tarios (debido a la normalización de los modelos) y evaluamos estos cambios de forma
individual, podemos entonces cuantificar como afectan a las VNCs en forma de desviacio-
nes cuadráticas respecto de su punto de trabajo nominal. De esta forma se define el ı́ndice
“suma de desviaciones cuadráticas” (SSD, de sus siglas en Inglés) como:
2 2
SSD = ||Gpr G−1 −1
ps ||F + ||Gdr − Gpr Gps Gds ||F (5.9)
donde || · ||F es la norma de Frobenius.
La minimización del ı́ndice SSD fue analizada extensamente en trabajos tales como
Zumoffen (2013) y Zumoffen (2016) y se muestra que dicha minimización tiende a maxi-
mizar el mı́nimo valor singular del subproceso a controlar Gps , i.e. la búsqueda conduce
hacia procesos bien acondicionados los cuales no presentan pérdida de ganancia direccio-
nal (Skogestad and Postlethwaite, 2005).
Si logramos parametrizar de forma adecuada la subdivisión de la Ec. 5.1, por ejem-
plo con variables binarias de decisión, podemos programar un problema de optimización
MINLP con la Ec. 5.9 como funcional costo y definir la VCs y VMs óptimas, con la carga
combinatoria (DPC) que definimos en la Sección 5.3. En las próximas secciones presenta-
remos este problema formalmente.

103
5.5. Desviaciones cuadráticas mı́nimas (DCM)

5.5.2. Estructura del controlador


Una vez definida la subdivisión del proceso como indica la Ec. 5.1, por ejemplo mediante
la minimización de la Ec. 5.9, es necesario ahora definir la estructura del controlador para
la planta Gps (s). Recordemos la estructura IMC de la Fig. 5.3, por lo tanto el controlador
estará dado por Gimc (s) = G̃ps (s)−1 F(s), donde G̃ps (s) es una selección particular de
la parte invertible de Gps (s) y F(s) es la matriz de filtros pasa bajo. En la Sección 4.5
oportunamente discutimos estos conceptos.
La expresión a lazo cerrado de la estructura de la Fig. 5.3 resulta,

ys (s) = F(s)yssp (s) + (Inq − F(s))ysnet (s) (5.10)

donde

ysnet (s) = An (s)yssp (s) + Bn (s)d(s), (5.11)


h   i−1  
An (s) = Inq + Gps (s) − G̃ps (s) Gimc (s) Gps (s) − G̃ps (s) Gimc (s), (5.12)
h   i−1
Bn (s) = Inq + Gps (s) − G̃ps (s) Gimc (s) Gds (s), (5.13)

siendo ysnet (s) el denominado “efecto de carga neta”, el cual cuantifica la interacción
multivariable a lazo cerrado del sistema.
Es claro de la Ec. 5.10 que el término asociado con el efecto de carga neta es una
perturbación indeseable desde el punto de vista de las VCs. Hay dos formas de evitar
estos efectos adversos de ysnet (s):
1. ajustar los parámetros de los controladores de forma tal de tener una respuesta
rápida, i.e. (Inq − F(s)) → 0 rápidamente.

2. minimizar la ganancia multivariable de ysnet (s) en estado estacionario.


La primera de las alternativas está limitada básicamente por cuestiones de estabili-
dad/robustez del sistema controlado. En la práctica real, no podemos acelerar la respuesta
de forma libre, ya sea por limitaciones en los actuadores o por la presencia de retardos
y/o ceros no mı́nima fase. Por lo tanto, la segunda opción parece ser la más adecuada.
Evaluando entonces la Ec. 5.11 en estado estacionario tenemos que:
   
ysnet = Inq − G̃ps G−1
ps ys
sp
+ G̃ G−1
ps ps G sp sp
ds d = ys − G̃ps us − G̃ps us
d
(5.14)

Procediendo de forma similar a la Ec. 5.9, i.e. en sentido de desviaciones cuadráticas,


podemos definir un nuevo ı́ndice denominado “evaluación de carga neta” (NLE, de sus
siglas en Inglés) como:
2 2
NLE = ||Inq − G̃ps G−1 −1
ps ||F + ||G̃ps Gps Gds ||F (5.15)

Si analizamos la Ec. 5.15 podemos ver que un error especı́fico planta-modelo, dado por
la selección de G̃ps , en el desarrollo del controlador IMC, podrı́a disminuir la ganancia
multivariable de ysnet y de esta forma mejorar la respuesta dinámica de las VCs a lazo
cerrado.
Notar que para el diseño de controladores IMC generalmente se elije que Gps = G̃ps en
estado estacionario, i.e. no hay error planta-modelo y el controlador IMC resultante tendrá
una estructura “completa” (full). En este caso las Ecs. 5.12-5.13 resultan en An = 0 y
Bn = Gds , lo que implica que: 1- cambios en los setpoints no afectarán a ysnet y por ello

104
5.5. Desviaciones cuadráticas mı́nimas (DCM)

Tabla 5.1: Selección de VCs - Proceso Shell


VCs seleccionadas
y1 y2 y3 y4 y5 y6 y7 SSD
s1 0 1 0 1 0 0 1 2.37
s2 0 1 0 1 0 1 0 3.26
s3 1 1 0 0 0 0 1 4.83
s4 1 1 0 0 0 1 0 5.59
s5 0 1 1 0 0 0 1 6.68

5 0.8
10

0.7
4
10
0.6

Mínimo valor singular de Gps


3 0.5
10
SSD − [log]

0.4

2
10
0.3

0.2
1
10

0.1

0
10 0
0 5 10 15 20 25 30 35 0 5 10 15 20 25 30 35
Soluciones Soluciones

(a) Índice SSD (b) σ(Gps )

Figura 5.4: Selección de VCs - Proceso Shell

tampoco introducirán efectos indeseables en las VCs y 2- las perturbaciones ingresan al


sistema de forma libre, i.e. no son atenuadas. Esto también pone en evidencia el ya clásico
problema de compromiso entre un comportamiento servo y el regulador.
La minimización del ı́ndice NLE fue analizada en trabajos tales como Zumoffen and
Basualdo (2013), Zumoffen and Feroldi (2014) y Braccia et al. (2017) y se muestra que
dicha minimización tiende a mejorar el comportamiento dinámico de las VCs a lazo cerrado
evitando la interacción multivariable frente a cambios de setpoint y perturbaciones. Esto
se logra eligiendo de forma óptima el error planta-modelo adecuado vı́a G̃ps (s).
Si logramos parametrizar de forma adecuada la selección de G̃ps (s), por ejemplo con
una matriz de variables binarias de decisión, podemos programar un problema de opti-
mización MINLP con la Ec. 5.15 como funcional costo y definir la estructura óptima del
controllador (descentralizado, disperso o full). La carga combinatoria en este caso resulta
DPC = 2nq . En las próximas secciones presentaremos este problema formalmente.

Ejemplo 5.5.1 (Estrategia DCM). En este ejemplo mostraremos las estrategias basadas
en los ı́ndices SSD y NLE por separado. Inicialmente abordaremos la selección de VCs
para el proceso Shell definido en Maciejowski (2002) y Zumoffen and Basualdo (2013),

105
5.5. Desviaciones cuadráticas mı́nimas (DCM)

cuyas matrices de ganancias de estado estacionario se muestran a continuación:


4.05 1.77 5.88 1.20 1.44
   
 5.39 5.72 6.90   1.52 1.83 
   
 3.66 1.65 5.53   1.16 1.27 
  
Gp =  5.92 2.54 8.10  , Gd =  1.73 1.79 
 
 4.13 2.38 6.23   1.31 1.26 
  

 4.06 4.18 6.53   1.19 1.17 
4.38 4.42 7.20 1.14 1.26
la planta posee ny = 7 potenciales VCs, nu = 3 VMs disponibles y nd = 2 perturbacio-
nes. Donde y1 e y2 son las composiciones de tope y lateral del producto, y3 a y7 son las
temperaturas de tope, reflujo superior, salida lateral, reflujo intermedio, y reflujo de fon-
do. Las variables u1 y u2 son los flujos de tope y lateral, y las perturbaciones d1 y d2 el
calentamiento del reflujo intermedio y el superior.
El objetivo en este caso es seleccionar tres VCs (caso III de la Sección 5.3) para
diseñar una estructura de control descentralizado con nq = 3 (utilizando todas las VMs
disponibles). La dimensión del problema combinatorio en este caso es DPC = 7!/(3!(7 −
3)!) = 35. Debido a que la combinatoria no es elevada podemos parametrizar la subdivisión
del modelo como se muestra en la Ec. 5.1 y utilizar el ı́ndice en la Ec. 5.9 para ordenar las
mejores soluciones de forma exhaustiva. En la Tabla 5.1 se muestran las primeras cinco
mejores soluciones para este caso, con su correspondiente valor de SSD. Claramente, la
mejor solución es s1 , la cual selecciona y2 , y4 e y7 como VCs y presenta un SSD = 2.37. Si
consideramos los objetivos de control definidos por Maciejowski (2002), los cuales sugieren
controlar y1 e y2 por criterios de calidad del producto, entonces vemos que la mejor solución
en este caso es s3 , la cual selecciona y1 , y2 e y7 como VCs y presenta un valor en el ı́ndice
de SSD = 4.83. El comportamiento dinámico de estas estructuras de control se pueden
observar en Zumoffen and Basualdo (2010, 2013).
En la Fig. 5.4 se pueden observar los perfiles completos para todas las soluciones, tanto
para el ı́ndice SSD, como para el mı́nimo valor singular de cada selección, σ(Gps ). Las
soluciones fueron ordenadas de izquierda a derecha. La Fig. 5.4(a) muestra el ı́ndice SSD
en escala logarı́tmica debido a sus grandes excursiones. En la Fig. 5.4(b) se presenta la
magnitud del mı́nimo valor singular para cada subproceso seleccionado Gps . Claramente se
puede apreciar como el ı́ndice SSD conduce a subprocesos bien acondicionados, i.e. buenas
carcaterı́sticas de controlabilidad.
La próxima planta a analizar es el proceso integrado CL, el cual representa dos colum-
nas de destilación integradas energéticamente para separar metanol y agua (Zumoffen and
Basualdo, 2013). El proceso tiene ny = 4 VCs: y1 e y2 representan las composiciones de
tope y de fondo de la columna de alta presión y y3 e y4 representan lo propio para la co-
lumna de baja presión. También posee nu = 4 VMs: u1 y u2 representan el flujo de reflujo
y la entrada de claor en la columna de alta presión, u3 es el reflujo de la columna de baja
presión y u4 es la relación de alimentación entre ambas columnas. La única perturbación
considerada en este caso, nd = 1, es d1 la composición del flujo de alimentación.
El objetivo de diseño es definir una estructura de control MIMO de orden nq = 4 y
diseñar el nivel de interacción del controlador: descentralizado, disperso o completo. Las
matrices de ganancia de estado estacionario son:
   
4.45 −7.40 0.00 0.35 1.02
 17.30 −41.00 0.00 9.20 
 , Gd =  19.70 
 
Gp =   0.22 −4.66 3.60 0.04   0.75 
1.82 −34.50 12.20 −6.92 16.61

106
5.6. Estrategia DCM con ı́ndices combinados

Tabla 5.2: Selección de la interacción del controlador - Proceso Shell


Componentes seleccionadas
z12 z13 z14 z21 z23 z24 z31 z32 z34 z41 z42 z43 NLE
sop 1 0 0 1 0 0 1 1 0 0 0 0 272.08
scy 1 1 0 0 0 1 0 0 1 1 1 1 532.37
sf 1 1 1 1 1 1 1 1 1 1 1 1 665.58
sd 0 0 0 0 0 0 0 0 0 0 0 0 1824.02

La RGA de Gp sugiere un apareamiento entrada-salida en la diagonal principal. To-


mando esta estructura descentralizada como base, definiremos la interacción del controla-
dor analizando el error planta-modelo mediante la selección de diferentes componentes del
proceso. Podemos entonces parametrizar dicha selección como
 
1 z12 z13 z14
 z21 1 z23 z24 
G̃p = Gp ⊗ Γ, donde Γ =   z31 z32 1 z34 

z41 z42 z43 1

donde ⊗ es el producto elemento a elemento y los zij son variables de decisión binarias que
permitirán seleccionar partes especı́ficas de Gp . Podemos entonces utilizar el concepto de
diseño basado en NLE de la Ec. 5.15 para comandar esta búsqueda. La dimensión del pro-
blema combinatorio en este caso es de DPC = 2ny (ny −1) = 4096, lo cual no representa un
inconveniente para resolverlo de forma exhaustiva. Las soluciones se ordenan en función
del ı́ndice NLE de la Ec. 5.15.
En la Tabla 5.2 se muestra una comparación entre diferentes soluciones. Por un lado
se presenta la solución óptima denominada sop obtenida mediante la estrategia NLE, la
solución presentada en Chang and Yu (1992, 1994) llamada scy , también se detalla la
estructura descentralizada sd y finalmente la estructura full o completa sf . Desde el punto
de vista del método NLE las estructuras clásica descentralizada y full no presentan el mejor
rendimiento, generalmente ocurre que una estructura dispersa (sparse) puede mejorar el
comportamniento de dichas estructuras clásicas.
En la Fig.5.5 se resume el comportamiento del funcional costo NLE a lo largo de las
soluciones (ordenadas de izquierda a derecha) y la prueba de estabilidad/robustez para
sistemas de control MIMO basados en IMC presentada en el Teorema 4.5.2. El compor-
tamiento dinámico de estas estructuras de control se pueden observar en Zumoffen and
Basualdo (2010, 2013).
Si bien para algunos casos particulares puede ser útil trabajar de forma secuencial
con las estrategias SSD y NLE, en general, la integración de ambas herramientas en un
único problema de optimización nos brindará mejores resultados permitiendo abordar los
problemas de forma sistemática y generalizada (Zumoffen, 2013).

5.6. Estrategia DCM con ı́ndices combinados


En esta sección mostraremos diferentes formulaciones de la estrategia DCM cuando
los ı́ndices SSD de la Ec. 5.9 y el NLE de la Ec. 5.15 se integran en un único proble-

107
5.6. Estrategia DCM con ı́ndices combinados

3500
Estable
1

3000

0.8

Estabilidad/Robustez de Morari
2500

0.6
2000
NLE

1500 0.4

1000
0.2

500
Instable
0

0
0 500 1000 1500 2000 2500 3000 3500 4000 4500 0 500 1000 1500 2000 2500 3000 3500 4000
Soluciones Soluciones

(a) Índice NLE (b) Prueba de estabilidad/robustez

Figura 5.5: Selección de la interacción del controlador - Proceso Shell

ma de optimización. En Zumoffen (2013) el lector encontrará una formulación secuencial


(subóptima) de la estrategia DCM.

5.6.1. Formulación MINLP de doble nivel

Los programas de optimización de doble nivel poseen dos capas bien diferenciadas:
1- el programa superior o externo con su propia función de costo, variables de decisión
y restricciones y 2- el problema inferior o interno el cual representa otro problema de
optimización completo embebido en las restricciones del problema externo. Estos niveles
pueden ser cooperativos o no dependiendo de la naturaleza del problema. (Braccia et al.,
2017). En la Ec. 5.16 se presenta una estrategia de integración entre la propuesta SSD y
el método NLE como problema MINLP de doble nivel.
Las Ecs. 5.16d-5.16h permiten seleccionar partes especı́ficas de Gp y Gd con la finalidad
de evaluar el ı́ndice SSD. Las matrices de transformación TO y TI son funciones de las
variables binarias de decisión zO y zI , respectivamente. Las componentes unitarias del
vector zO indican las variables de salidad seleccionadas para ser VCs. De forma similar, el
vector zI indica la selección de VMs. La cantidad de elementos unitarios en estos vectores
es la misma e igual a nq . Las funciones nre(·) y nce(·) toman una matriz cuadrada y
eliminan las filas y columnas nulas, respectivamente.
El error planta-modelo se define en la Ec. 5.16i mediante zP and zS , las cuales represen-
tan matrices binarias de decisión de nq ×nq . La matriz zP considera el mejor apareamiento
entrada-salida resultante de resolver el problema embebido de la Ec. 5.16m. Por su parte,
la matriz zS representa la selección dispersa del modelo tomando como base la estur-
ctura descentralizada zP para minimizar el ı́ndice NLE. Es importante tener en cuenta
que para cada apareamiento dado por zP existen 2(nq −1)nq posibilidades de elegir el error
planta-modelo. Notar que el funcional costo del problema embebido se basa en el núme-
ro RGA, ΛN , definido en la Sección 4.16. La restricción de la Ec. 5.16j es el criterio de
robustez/estabilidad desarrollado por Garcia and Morari (1985) para sistemas de control
MIMO basados en IMC como definimos en el Teorema 4.5.2. La Ec. 5.16k representa una
restricción estructural.

108
5.6. Estrategia DCM con ı́ndices combinados

mı́n [SSD + NLE] (5.16a)


zI , zO , zS
2 2
s.t. SSD = ||Gpr G−1 −1
ps ||F + ||Gdr − Gpr Gps Gds ||F (5.16b)
2 2
NLE = ||Inq − G̃ps G−1 −1
ps ||F + ||G̃ps Gps Gds ||F (5.16c)
nq ≤ mı́n{ny , nu } (5.16d)
||zI ||1 = ||zO ||1 = nq (5.16e)
O I
TO = nre[diag(z )], TI = nce[diag(z )] (5.16f)
Gps = TO Gp TI , Gds = TO Gd (5.16g)
Gpr = TO Gp TI , Gdr = TO Gd (5.16h)
P S
G̃ps = Gps ⊗ (z + z ) (5.16i)
h  i
−1
Re λi Gps (G̃ps ) > 0, i = 1, . . . , q (5.16j)
XX
zS (i, j)zP (i, j) = 0 (5.16k)
i j

zI ∈ Bm , zO ∈ Bn , zS ∈ Bq×q (5.16l)

mı́n ΛN
 zP
T
 s.t. Λ = Gps ⊗ (G−1 ps )



 ΛN = ||zP − Λ||sum (5.16m)
 X X

 zP (i, j) = zP (i, j) = 1
i j


P q×q
z ∈B

La estrategia DCM para selección de estructuras de control presentada en la Ec. 5.16


define un problema del tipo MINLP de doble nivel. En Zumoffen (2016) se resolvió este pro-
blema, para estructuras descentralizadas, mediante rutinas de búsqueda global estocástica
como algoritmos genéticos. Debido al costo computacional requerido con esta formula-
ción, y este tipo de “solver”, la estrategia se vuelve un poco restrictiva para casos de
mediana-gran escala.
Es importante notar que en el caso de trabajar con modelos no normalizados o sim-
plemente para tener más grados de libertad a la hora de ponderar de forma relativa las
variables, el funcional costo definido en las Ecs. 5.16b-5.16c se puede representar como:
2 2
SSD =||Ξ2 (Gpr G−1 −1
ps )Ξ1 ||F + ||Θ2 (Gdr − Gpr Gps Gds )Θ1 ||F
2 2
(5.17)
NLE =||Φ2 (Inq − G̃ps G−1 −1
ps )Φ1 ||F + ||Ψ2 (G̃ps Gps Gds )Ψ1 ||F

donde Ξ1 y Φ1 permiten evaluar cambios de setpoints especı́ficos para cada problema y


Θ1 y Ψ1 brindan información acerca de las perturbaciones más relevantes. Por otro lado,
Ξ2 , Θ2 , Φ2 y Ψ2 permiten ponderar de forma relativa las variables de salida, ya sea las
potenciales VCs de la propuesta SSD o las ya seleccionadas VCs en la estrategia NLE.

5.6.2. Formulación MINLP de un solo nivel


Los problemas MINLP de doble nivel se pueden reformular en un problema de opti-
mización de un único nivel eliminando de forma adecuada la optimización embebida en

109
5.6. Estrategia DCM con ı́ndices combinados

la restricciones del problema externo. Si bien la literatura es extensa para los casos en
que el problema interno no posee variables de decisión enteras (BLP/BNLP/BQP), hay
una carencia importante de solvers rigurosos y procedimientos para abordar problemas de
doble nivel mixto-entero no lineales (BMINLP) (Yue and You, 2017; Braccia et al., 2017).
La reformulación utilizada en este caso se basa en la idea propuesta por Yue and You
(2017) de programación centralizada paramétrica de un único nivel, donde la optimización
embebida se reemplaza por condiciones de factibilidad (relajación). Entonces la versión
modificada del problema de la Ec. 5.16 se puede presentar como:

mı́n [SSD + NLE] (5.18a)


zI , zO , zS , zP

s.t. eq. (5.16b) to eq. (5.16l) (5.18b)


T
Λ = Gps ⊗ (G−1
ps ) (5.18c)
P
Λp = Λ ⊗ z (5.18d)
X
δ1 ≤ Λp (i, j) ≤ δ2 , i = 1, . . . , q (5.18e)
j
X X
P
z (i, j) = zP (i, j) = 1 (5.18f)
i j

zP ∈ Bq×q (5.18g)

Las restricciones de las Ecs. 5.18d y 5.18e garantizan que el apareamiento entrada-salida
seleccionado por zP es una solución factible, donde Λp contiene los elementos elegidos por
zP de la RGA y cero para el resto. En la Ec. 5.18e, δ1 y δ2 son parámetros de diseño que
nos permiten definir el grado de interacción deseado (mı́nimo y máximo respectivamente)
entre las entradas y salidas que van a ser apareadas en una estrategia de control descen-
tralizado. Además, la matriz de decisión binaria zP es ahora un argumento del problema
de optimización junto a zI , zO , and zS .
La reformulación en este caso se basa en el siguiente razonamiento: la optimización
interna de la Ec. 5.16m genera el apareamiento entrada-salida más descentralizado para
el subproceso Gps , es decir, los elementos seleccionados para apareamiento poseen valores
muy cercanos a la unidad y el resto de las componentes poseen valores muy bajos. Desde
el punto de vista de control, esto significa buenas carcaterı́sticas de control, bajos valores
de energı́a de control y baja interacción a lazo cerrado.
Analizando las propiedades inherentes de los métodos SSD y NLE se observa que, por
un lado, la minimización del ı́ndice SSD (Ec. 5.8) tiende a maximizar el mı́nimo valor singu-
lar del subproceso Gps al minimizar las desviaciones de usp d
s y us (es decir, un proceso bien
acondicionado, buenas caracterı́sticas de control, baja energı́a de control y una confiable
RGA) y, por otro lado, la minimización del ı́ndice NLE tiende a minimizar la interacción
multivariable a lazo cerrado (Ec. 5.14), minimizando también la ganancia multivariable
del modelo del proceso G̃ps y las desviaciones de usp d
s y us (Zumoffen and Basualdo, 2013;
Zumoffen, 2016). En otras palabras, el indice combinado “SSD+NLE” conduce la opti-
mización hacia subprocesos bien acondicionados con RGA confiable y mı́nima energı́a de
control. Por lo tanto, la optimización en la Ec. 5.16m se reemplaza por condiciones de
factibilidad.
Es importante resaltar que la formulación de la Ec. 5.16 y la reformulación de la Ec. 5.18
no son equivalentes. Ésta última es una aproximación al problema original, principalmente
focalizada en factibilidad debido a la carencia de solvers determinı́sticos para resolver
problemas MINLP de doble nivel. La rigurosidad de dicha aproximación dependerá del

110
5.6. Estrategia DCM con ı́ndices combinados

problema a resolver en cuestión. En el caso de diseño de estructuras multivariables de


control, reemplazar la minimización de el número de RGA para determinar el apareamiento
óptimo por una serie de restricciones de factibilidad no produce inconvenientes relevantes
a la solución final.

5.6.3. Formulación MIQP

En esta sección se presenta una reformulación del problema MINLP unificado de la


Ec. 5.18 como un algoritmo de optimización mixto-entero cuadrático (MIQP). La idea
principal aquı́ es evitar los términos no lineales que aparecen en la función objetivo y en
algunas restricciones de la formulación MINLP unificada debido al producto entre variables
de decisión y la inversa de matrices. Para ello, trasladaremos el criterio original de selección
que se basaba en subdividir las matrices originales del modelo del proceso (Gp y Gd ), a
la selección de variables de entrada y salida (u e y). La nueva representación mantiene la
linealidad y convexidad de la programación y, si se utilizan solvers determinı́sitcos tales
como CPLEX, se puede garantizar que la mejor solución encontrada es también el óptimo
global.
Considerando el análisis realizado en las Sección 5.5, tanto el ı́ndice SSD como el
NLE cuantifican las desviaciones de algunas variables especı́ficas respecto de su punto
nominal cuando actúan tanto setpoints como perturbaciones (obviamente, parametrizados
con alguna selección de VCs, VMs y la estructura del controlador). Ası́, para cada cambio
de setpoint y cada perturbación actuando individualmente, los sistemas de ecuaciones
definidos por las Ecs. 5.8, para yr , y 5.14, para ysnet , pueden resolverse separadamente y
sumarse en el funcional costo.
Antes de presentar formalmente la propuesta MIQP y explicar sus componentes, es
importante definir claramente las variables de decisión (vectores y matrices) utilizados:

Vectores de variables binarias: zI ∈ Bnu ×1 , and zO ∈ Bny ×1 ,

Matrices de variables binarias: zn , znd ∈ Bny ×nu ,

Vectores de variables reales: yic , yinc , yjd , yjnd ∈ Rny ×1 y uci , udj ∈ Rnu ×1 y

Matrices de variables reales: unc nd r


i , uj , y ∈ R
ny ×nu ,

donde i = 1, . . . , ny , l = 1, . . . , nu , and j = 1, . . . , nd . La notación A(:, i) significa


la selección de la i-ésima columna de la matriz A. Además, vi y vj refieren a vectores
unitarios de direcciones i y j, respectivamente, para los espacios Rny y Rnd .
La reformulación completa MIQP, en este caso mediante representación matricial, se
puede observar en la Ec. 5.19. En el trabajo de Braccia et al. (2017) se puede encontrar
también la versión escalar y algunos detalles de implementación. A continuación se comenta
la formulación.

111
5.6. Estrategia DCM con ı́ndices combinados

ny nd ny nd
d 2 X nc 2 X nd 2

kyic k22
X X
mı́n + yj + kyi k2 + yj (5.19a)
u,y,z 2 2
i=1 j=1 i=1 j=1

s.t. − M (1ny − zO ) ≤ Gp uci − vi ≤ M (1ny − zO ) (5.19b)


− M (1ny − zO ) ≤ Gp udj + Gd (:, j) ≤ M (1ny − zO ) (5.19c)
O
− M z (i) 1nu ≤ uci ≤ O
M z (i) 1nu (5.19d)
I c I
− M z ≤ ui ≤ M z (5.19e)
− M zI ≤ udj ≤ M zI (5.19f)
yic − Gp uci + vi ⊗ zO = 0ny (5.19g)
yjd − Gp udj − Gd (:, j) = 0ny (5.19h)
O
z = zI

1 1
(5.19i)
O
z ≤ nq (5.19j)
1
− M (1ny ×nu − zn ) ≤ unc c T n
i − 1ny (ui ) ≤ M (1ny ×nu − z ) (5.19k)
− M (1ny ×nu − zn ) ≤ und d T n
j − 1ny (uj ) ≤ M (1ny ×nu − z ) (5.19l)
− M zn ≤ unc i ≤ Mz
n
(5.19m)
− M zn ≤ und j ≤ Mz
n
(5.19n)
yinc + (Gp ⊗ unc O
i )1nu − vi ⊗ z = 0ny (5.19ñ)
yjnd + (Gp ⊗ und j )1nu = 0ny (5.19o)
n I n O
z (i, l) ≤ z (l), z (i, l) ≤ z (i) (5.19p)
zI (l) ≤ kzn (:, l)k1 , zO (i) ≤ zn (i, :)T 1

(5.19q)

zI (l) = znd (:, l) , zI (l) = znd (i, :)T (5.19r)

1 1
znd ≤ zn (5.19s)
h iT
− M (1ny ×nu − znd ) ≤ yr − Gp ⊗ uc1 , . . . , ucny ≤ M (1ny ×nu − znd ) (5.19t)
δ1 znd ≤ yr ≤ δ2 znd (5.19u)
ny
X
zO (i) − yinc (i) ≥ δ

(5.19v)
i=1

Subproblema SSD

La reformulación en la Ec. 5.19 evita la subdivisones de matrices definidas en Ecs. 5.16f


a 5.16h ası́ como también las operaciones complejas y no lineales de la Ec. 5.16b para-
metrizando la superestructura de control directamente sobre el proceso completo y =
Gp u + Gd d.
Si los cambios en setpoints y perturbaciones son considerados individualmente, enton-
ces se deben tener en cuenta los siguientes sistemas para cada setpoint i y cada perturba-

112
5.6. Estrategia DCM con ı́ndices combinados

ción j:
 c
yi = Gp uci − vi ∀ i ∈ VCs
Cambios de setpoint: VCs seleccionadas en yic fijas a cero

VMs no seleccionadas en uci fijas a cero


 d
yj = Gp udj + Gd vj ∀ j = 1, . . . , nd
Cambio en perturbaciones: VCs seleccionadas en yjd fijas a cero

VMs no seleccionadas en udj fijas a cero


(5.20)
En la Ec. 5.20, uci y udj son vectores de variables reales (continuas) de dimensión
nu × 1 asociadas a la respuesta de las entradas para el i-ésimo cambio de setpoint y la
j-ésima perturbación, respectivamente. De forma similar, yic e yjd son vectores de variables
reales (continuas) de dimensión ny × 1 asociadas con las desviaciones de la variables no
controladas (VNCs). Los vectores unitarios vi (ny × 1) y vj (nd × 1) generan los cambios
normalizados del setpoint i y perturbación j. Para utilizar los sistemas en la Ec. 5.20,
componentes especı́ficas de los vectores de entrada (uci y udj ) y salida (yic e yjd ) deben
ser fijados dependiendo de la selección de VCs y VMs. En particular, las componentes
asociadas a las entradas no manipuladas y salidas controladas deben ser fijados a cero.
El subproblema SSD se aborda en las Ecs. 5.19b a 5.19j. Las variables (yic , uci ) e
(yjd , udj ) contienen la solución del sistema de ecuaciones requerida para el i-ésimo cambio
de setpoint y la j-ésima perturbación, respectivamente. Estas soluciones se obtienen en
función de las VCs y VMs seleccionadas por las variables binarias zO y zI . Debido a que
estamos interesados en estructuras cuadradas de control, la cantidad de VCs es igual al
número de VMs seleccionadas. El algoritmo de la Ec. 5.19 busca de forma óptima esta
cantidad considerando el tope máximo de nq . Este parámetro es definido por el usuario
dentro del rango 1 ≤ nq ≤ mı́n(ny , nu ).

Subproblema NLE
El diseño de la estructura del controlador, basado en la estrategia NLE, se representa
aquı́ mediante las Ecs. 5.19k a 5.19q de la refolrmulación MIQP. Siguiendo una estrategia
similar al caso SSD, se evita realizar la subdivisión de matrices de la Ecs. 5.16g a 5.16i, el
producto no lineal de Hadamard en la Ec. 5.16i y las operaciones no lineales con matrices
en la Ec. 5.16c.
Si los cambios en setpoints y perturbaciones son considerados individualmente, enton-
ces se utilizan los siguientes sistemas derivados de la Ec. 5.14:
 nc
yi = vi − G̃p uci
Cambios de setpoint:
∀ i ∈ VCs
 nd (5.21)
yj = −G̃p udj
Cambios de perturbaciones:
∀j = 1, . . . , nd

En la Ec. 5.21, la matriz G̃p solo contiene las componentes de Gp seleccionadas por la
estructura de control. Para realizar esta selección, se utiliza la matriz de variables binarias
zn de dimensión ny × nu . Debido a que por definición es G̃p = Gp ⊗ zn , entonces el
producto G̃p uci (y G̃p udj ) de la Ec. 5.21 introduce ecuaciones con multiplicaciones entre
variables de decisión binarias y continuas a la formulación. Para evitar esta no linealidad

113
5.6. Estrategia DCM con ı́ndices combinados

se recurre a un método diferente de cálculo. Es importante notarque el producto G̃p uci


se puede escribir como G̃ui = (G ⊗ z )ui = G ⊗ z ⊗ 1m (uci )T 1n , donde el término
c n c
 n

entre corchetes se puede obtener utilizando restricciones lineales llamas big-M y una nueva
matriz real unci , como se muestra en las Ecs. 5.19k, 5.19m y 5.19ñ. Un argumento similar
se utiliza para el caso del producto G̃p udj , utilizando la nueva matriz und
j como se resume
en la restricciones de las Ecs. 5.19l, 5.19n y 5.19o.
Los vectores de desviación de NLE son yinc e yjnd , cada uno asociado al i-ésimo setpoint
y la j-ésima perturbación. Las restricciones en la Ecs. 5.19p y 5.19q, son restricciones
estructurales que garantizan que la estructura del controlador zn sólo tenga componentes
en las posiciones permitidas definidas por la selección de VCs y VMs dadas por zO y zI ,
respectivamente, ası́ como asegurar también que por lo menos se pueda seleccionar una
estructura descentralizada.

Apareamiento basado en la RGA


El problema de apareamiento entrada-salida se representa en este caso por las Ecs. 5.19r
a 5.19u. La idea principal es representar la selección de una estructura descentralizada de
control con un nueva matriz binaria znd , la cual será vinculada con la selección de la
estructura dispersa de control zn .
Recordando la matriz RGA (Sección 4.4.2), Λ(Gps ) = Gps ⊗ (G−1 T
ps ) , donde Gps es
el subproceso elegido para ser controlado. Entonces znd tendrá componentes unitarias
sólo en los lugares donde los valores de Λ resulten factibles. Además, estas variables de
decisión binarias están restringidas por las desigualdades de la Ec. 5.19r, que garantiza un
apareamiento uno a uno entre los conjuntos de VCs y VMs y la Ec. 5.19s que garantiza la
estructura descentralizada como base para el diseño disperso.
Es importante notar que se requiere de algún tipo de reformulación en el cálculo de
la RGA si no queremos introducir fuertes no linealidades a la representación. Recordando
las definiciones de la Sección 4.4.2 y en particular la Ec. 4.14 podemos escribir que cada
elemento de la matriz RGA es
p p
λij = gij ĝji
p
donde gji son las componentes de la matriz Gp y como vimos resulta que

p ∆uj
ĝji =
∆yi ∆yk =0,∀k6=i, ∆yi =libre

p
donde ĝji son las componentes de la matriz G−1
p .
T
Esto nos permite escribir la RGA en forma matrical como Λ(Gp ) = Gp ⊗ G−1
p ,
considerando un proceso genérico Gp de ny × nu .
De acuerdo con estas relaciones también podemos escribir que
 
∆u1 /∆y1 ∆u1 /∆y2 ··· ∆u1 /∆yny
 ∆u2 /∆y1 ∆u2 /∆y2 ··· ∆u2 /∆yny 
G−1 = .. .. .. (5.22)
 
p  .. 
 . . . . 
∆unu /∆y1 ∆unu /∆y2 · · · ∆unu /∆yny

donde la i-ésima columna se clacula considerando ∆yk = 0, ∀k 6= i y ∆yi = libre.


Ahora bien, como estamos trabajando con modelos normalizados del proceso, podemos
asumir que los ∆yi son unitarios lo que produce que la matriz de la Ec. 5.22 se convierta

114
5.6. Estrategia DCM con ı́ndices combinados

en,
∆uc1 (1) ∆uc2 (1) · · · ∆ucny (1)
 
 ∆uc1 (2) ∆uc2 (2) · · · ∆ucny (2)  h i
c c c
 = u1 , u2 , . . . , uny (5.23)
 
 .. .. .. ..
 . . . . 
c c
∆u1 (nu ) ∆u2 (nu ) c
· · · ∆uny (nu )
donde los vectores uci con i = 1, . . . , ny son las desviaciones de la entrada previamente
definidas para el problema SSD. Por lo tanto la matriz RGA se puede computar como:
h iT
Λ(Gp ) = Gp ⊗ uc1 , uc2 , . . . , ucny (5.24)

donde Gp es una matriz real fija, ⊗ el producto Hadamard y el cómputo ahora no posee
relaciones no lineales.
De acuerdo con lo discutido anteriormente, la RGA se calcula en la Ec. 5.19t utilizando
restricciones del tipo big-M sobre la estructura descentralizada de control definida por znd .
Los elementos seleccionados para apareamiento de la matriz yr se someten a la desigualdad
de la Ec. 5.19u para garantizar factibilidad utilizando los parámetros seleccionados por el
usuario δ1 y δ2 .

Condición de estabilidad/robustez
El criterio de estabilidad/robustez de la Ec. 5.16j introduce fuertes no linealidades
al modelo, debido a que se trata de una prueba basada en autovalores. Por lo tanto, es
necesario algún tipo de reformulación y en este sentido comenzaremos recordando algunas
propiedades matriciales de interés.
Toda matriz real A de dimensión n × n se denomina “estable positiva” (EP) sı́
Re [λi (A)] > 0, ∀i = 1, . . . , n, donde λi (·) es el i-ésimo autovalor y Re(·) es la función
parte real.
Además, sı́ A es EP entonces A−1 también es EP (Horn and Johnson, 1990). Adi-
cionalmente, ya que toda matriz real cuadrada posee sólo autovalores reales o complejos
conjugados, para toda matriz A real y EP la siguiente condición basada en la traza es
verdadera,
Xn X n Xn
tr (A) = λi (A) = Re [λi (A)] = aii > 0 (5.25)
i=1 i=1 i=1
donde aij es el (i, j)-ésimo elemento en la matriz A. Es importante notar que lo inverso no
es verdadero, i.e. una traza positiva no implica EP. De todas formas, una traza negativa
implica que la matriz A es definitivamente no EP y este hecho se utiliza como prueba
preliminar de estabilidad/robustez en al modelo MIQP.
Consideremos el producto Gps (G̃ps )−1 y su inversa G̃ps (Gps )−1 , para un proceso Gps
de dimensiones nq ×nq . La traza entonces para el último producto se puede expresar como:
     
tr G̃ps (Gps )−1 = rT1 G̃ps (Gps )−1 r1 + rT2 G̃ps (Gps )−1 r2 + . . .
  (5.26)
+ rTnq G̃ps (Gps )−1 rnq

donde el vector rk de nq × 1 posee un elemento unitario en la posición k y cero en el resto.


Recordando la Ec. 5.8 y considerando cambios de setpoint unitarios, tenemos que
sp
us k = G−1
ps rk y la Ec. 5.26 se puede escribir como:
spn
 
sp sp
tr G̃ps (Gps )−1
= rT1 G̃ps us 1 + rT2 G̃ps us 2 + . . . + rTnq G̃ps us q (5.27)

115
5.6. Estrategia DCM con ı́ndices combinados

Considerando ahora la Ec. 5.14 y sólo cambios de setpoint unitarios tenemos que
sp
G̃ps us k = rk − ysnetk , por lo tanto la Ec. 5.27 se puede modificar como:

netn
   
tr G̃ps (Gps )−1 =rT1 r1 − ysnet1 + rT2 r2 − ysnet2 + . . . + rTnq rnq − ys q
 

netn
 
= 1 − ysnet1 (1) + 1 − ysnet2 (2) + . . . + 1 − ys q (nq )
 
(5.28)
nq
X
= 1 − ysneti (i)
i=1

La Ec. 5.28 nos brinda una forma alternativa de computar la traza de G̃ps (Gps )−1
utilizando información ya disponible como ysnet . Notar que esta representación se aplica
para sistemas cuadrados Gps .
Como propusimos cambiar la filosofı́a en esta representación MIQP y trabajar con
el sistema general no cuadrado Gp , entonces la evaluación de la traza de la Ec. 5.28 se
transforma en el cómputo de la Ec. 5.19v, ya que las desviaciones del efecto de carga neta
dependen de las VCs seleccionadas por zO . Se considera en esta caso un pequeño lı́mite
inferior δ.
Esta restricción conservativa evita la selección de estructuras de control las cuales
son definitivamente no EP. Es importante notar que una traza positiva es una condición
“necesaria pero no suficiente” para garantizar la propiedad de EP de una determinada
matriz.

Consideraciones heurı́sticas
Las consideraciones heurı́sticas pueden fácilmente ser incorporadas a la formulación de
la Ec. 5.19. Por ejemplo, si la i-ésima variable de salida y la l-ésima variable de entrada
son elegidas ad-hoc para formar parte de las VCs y VMs, respectivamente, entonces esta
situación se puede considerar fijando los correspondientes valores binarios de las variables
zO (i) = 1 y zI (l) = 1. Estas decisiones ad-hoc provienen generalmente de la etapa de sı́nte-
sis de procesos, de prácticas habituales en una determinada planta, de los ingenieros de
proceso y/o por cuestiones de seguridad. Además, el usuario puede elegir entre tres diferen-
tes estructuras de control (topologı́as) para el diseño de PWC, tales como, descentralizada,
dispersa y completa. La idea original de la formulación en la Ec. 5.19 está pensada para
diseño de estructuras de control del tipo disperso, es decir controladores con interacción
arbitraria. Dependiendo de la dimensión de la estructura de control, nq = zO = zI ,

este tipo de controladores se puede implementar mediante una estrategia IMC, teorı́a de
MPC o simplemente mediante múltiple lazos PID. El diseño de estructuras descentrali-
zadas de control se puede llevar a cabo si la desigualdad en la Ec. 5.19s se reemplaza
por zn = znd . Por otro lado, la estructura de control tipo completa o full resulta cuando
agregamos a la formulación la desigualdad zn (i, l) ≥ zI (l) + zO (i) − 1.

Ejemplo 5.6.1 (Diseño PWC - Estrategia DCM con ı́ndices combinados). En este ejem-
plo se muestran algunos resultados obtenidos de aplicar el método de ı́ndices combinados
“SSD+NLE”, basado en programación MIQP, sobre el caso de estudio denominado Pro-
ceso Tennessee Eastman (TE). Para un conocimiento profundo del proceso se recomienda
a los lectores los trabajos de Downs and Vogel (1992) y Braccia et al. (2017). En este
ejemplo sólo brindaremos una breve introducción.

116
5.6. Estrategia DCM con ı́ndices combinados

u4
u5
u2
1 8 y8 Purge
A
CWS 9 A y11
Compressor
u8 N
u1
2 7 A
D CWR LC LI
Condenser 13 L
FI FC LC Y
Z
3 y1 5 E
E FC FI y4, y5
LI R
CWS
10
A TC Vap/liq
N u7 separator
6 TI
A
y2 Stripper A
L CWR y6, y7
Y 12 N
y3, y9
Z A
Reactor u6 L
E
LI Stm Y
R
Cond Z
E
FI FC LC R
u3
C Product
4 11 y10, y12

Figura 5.6: Proceso Tennessee Eastman

El proceso TE consiste de cinco unidades principales: 1- reactor, 2- condensador de


producto, 3- compresor de reciclo, 4- separador vapor-lı́quido y 5- una columna de separa-
ción. La planta produce dos productos lı́quidos G y H de cuatro reactivos gaseosos A, C,
D y E. También están presentes un inerte B y un subproducto F. La topologı́a general del
proceso, y su estructura de control estabilizante, se observa en la Fig. 5.6.
El escenario principal considerado aquı́ para el diseño de una estructura PWC se mues-
tra en la Tabla 5.3 y corresponde al caso base de operación con ny = 12 salidas, nu = 8
entradas y nd = 2 perturbaciones. El mismo marco de diseño se utilizó en Zumoffen (2013,
2016). Los requisitos originales de control definidos por Downs and Vogel (1992) requieren
que las salidas y9 , y10 , y11 e y12 sean VCs y esto se indica con un asterisco en la Tabla 5.3.
Teniendo en cuenta los potenciales escenarios de PWC definidos en la Sección 5.3 y
la estrategia de diseño en la Sección 5.5, en este caso tenemos:

Posibles selecciones de VCs y VMs: 1820,

Varios apareamientos alternativos que la RGA podrı́a generar para cada selección,

Potenciales estructuras del controlador (4 ≤ nq ≤ 8): 72062 × 1012 ,

claramente, es imposible abordar heurı́sticamente el problema.


En la Tabla 5.4 se presentan las soluciones óptimas obtenidas de implementar la estra-
tegia MINLP de la Ec. 5.16 en el contexto de Matlab con una búsqueda global estocástica
(algoritmos genéticos, AG) y la reformulación MIQP de la Ec. 5.19 implementada en
GAMS con un solver determinı́stico como CPLEX. De la tabla se observa no solo que la
estrategia MIQP está capacitada para terminar el proceso de búsqueda exitosamente para
cada polı́tica de control, sino que también presenta los siguientes resultados: 1- los tiem-
pos de optimización de la propuesta MIQP/CPLEX representan sólo el 37.81 %, 47.84 %
y 5.36 % de los tiempos empleados por la estrategia Matlab/AG para el diseño de con-
troladores descentralizados, dispersos y completos, respectivamente, y 2- para el caso de
controlador disperso la propuesta MINNLP basada en Matlab/AG no puede encontrar la
solución óptima.

117
5.6. Estrategia DCM con ı́ndices combinados

Tabla 5.3: Variables del proceso TE


Entradas Variable
u1 Flujo D [kg/h] XM V (1)
u2 Flujo A [kg/h] XM V (3)
u3 Flujo A/C [kscmh] XM V (4)
u4 Válvula compresor [ %] XM V (5)
u5 Válvula purga [ %] XM V (6)
u6 Válvula vapor stripper [ %] XM V (9)
u7 Setpoint temp. RCWO [o C] XM E(21)sp
u8 Flujo CCW [m3/h] XM V (11)
Salidas
y1 Flujo reciclo [kscmh] XM E(5)
y2 Flujo reactor [kscmh] XM E(6)
y3 Temperatura reactor [o C] XM E(9)
y4 Temperatura separador [o C] XM E(11)
y5 Presión separador [kPa] XM E(13)
y6 Presión stripper [kPa] XM E(16)
y7 Temperatura stripper [o C] XM E(18)
y8 Trabajo compresor [kW] XM E(20)
y9 (*) Presión reactor [kPa] XM E(7)
y10 (*) Tasa de producción [m3/h] XM E(17)
y11 (*) Composición B en purga [mol %] XM E(30)
y12 (*) Relación de composición G/H XM EG/H
Perturbaciones
d1 Composción del flujo 4 (A/C) IDV (1)
d2 Composción del flujo 4 (B) IDV (2)

Tabla 5.4: Formulaciones BMINLP (AG) y MIQP (CPLEX) - Proceso TE


Descentralizado Disperso Completo
AG CPLEX AG CPLEX AG CPLEX
SSD+NLE 19.77 19.77 12.39 9.98 14.90 14.90
Tiempo [s] 484.85 183.32 48324.04 23115.89 278.28 14.92

Las Tablas 5.5 y 5.6 muestran las estructuras de control MIMO para cada polı́tica
de control (descentralizado, disperso y completo). Por un lado, la Tabla 5.5 muestra la
selección óptima de VCs y VMs a través de las variables binarias de decisión zO y zI ,
respectivamente. Por otro lado, la Tabla 5.6 muestra la selección óptima del error planta-
modelo con las entradas unitarias de la variable zn , el apareamiento definido por znd
(componentes resaltadas con fondo gris) y la prueba de estabilidad/robustez de Morari. Es
importante notar que no sólo es diferente la cantidad de VCs/VMs, sino que también las
variables seleccionadas.
Las implementaciones dinámicas de dichas estructuras PWC, aplicaciones a otros casos
de estudio y un análisis detallado de los efectos del ajuste de los parámetros en la estrategia
MIQP, se pueden encontrar en Braccia et al. (2017, 2018).

118
5.6. Estrategia DCM con ı́ndices combinados

Tabla 5.5: Selección de VCs y VMs - Proceso TE


zO zI
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10 y11 y12 u1 u2 u3 u4 u5 u6 u7 u8
Decentralized 0 1 0 0 0 0 1 0 1 1 1 1 1 1 1 0 1 0 1 1
Sparse 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0
Full 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 0 1 0

Tabla 5.6: Apareamiento (znd ) y error planta-modelo (zn )


Decentralized Sparse Full
u1 u2 u3 u4 u5 u6 u7 u8 u1 u2 u3 u4 u5 u6 u7 u8 u1 u2 u3 u4 u5 u6 u7 u8
y1 0 0 0 0 0 0 0 0 1 0 1 1 1 0 1 0 1 1 1 1 1 0 1 0
y2 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
y3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
y4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
y5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
y6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
y7 0 0 0 0 0 0 0 1 1 0 1 1 0 1 1 0 0 0 0 0 0 0 0 0
y8 0 0 0 0 0 0 0 0 1 0 0 1 0 0 1 0 1 1 1 1 1 0 1 0
y9 0 1 0 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 1 1 1 0 1 0
y10 0 0 1 0 0 0 0 0 0 1 1 1 1 1 1 0 1 1 1 1 1 0 1 0
y11 0 0 0 0 1 0 0 0 1 0 0 1 0 1 1 0 1 1 1 1 1 0 1 0
y12 1 0 0 0 0 0 0 0 1 0 1 1 0 1 1 0 1 1 1 1 1 0 1 0
mı́n [Re (λi )] 0.6598 0.4160 1.0000

119
Capı́tulo 6
Estrategias alternativas de control

En este capı́tulo presentaremos algunas estrategias alternativas de control para mejorar


el rendimiento de los lazos clásicos de retroalimentación de salida. Abordaremos propuestas
para evitar el volado de la contribución integral (antireset windup) en controladores PID,
algunas estrategias de autoajuste y PID con ajustes variantes. Presentaremos también los
conceptos de lazo interno de control, control en cascada y control en avance. Finalmente,
trataremos estructuras especiales de control como control por relación, control selectivo y
control por rango dividido.

6.1. Mejoras sobre PID


Los controladores PID comerciales poseen varias caracterı́sticas adicionales además
del simple algoritmo PID. En general todos poseen capacidades de antireset windup (anti
volado integral) y muchos tienen funciones de autoajuste. En las secciones que siguen
presentaremos estas estrategias.

6.1.1. Antireset windup (ARW)


Uno de los efectos no lineales que aparecen en los sistemas reales es la saturación de
las VMs cuando actúan controladores con acción integral. Cuando dichas VMs están en
restrición activa, comienza a aparecer el fenómeno de “reset windup” (volado de la inte-
gral). La acción integral del PID continúa acumulando el error de seguimiento, generado
por dicha saturación, requiriendo más y más acción de la VM la cual no puede responder.
Debido a este efecto la VM puede permanecer saturada mas tiempo de lo necesario.
Una estructura de control por retroalimentación con restricción en su VM se puede
observar en la Fig. 6.1. El bloque que representa la saturación es una función no lineal,
f (v), que vincula la variable de salida del controlador v(s) y la entrada efectiva al proceso
u(s) mediante la siguiente descripción matemática:

 umin , si v(s) < umin
u(s) = v(s), si umin ≤ v(s) ≤ umax (6.1)
umax , si v(s) > umax

donde umin y umax son lı́mites operativos.


Existen diferentes formas para minimizar el efecto del reset windup como comentamos
brevemente en la Sección 3.2.3. En este caso abordaremos la estrategia denominada retro-
calculo, cuya estructura se muestra en la Fig. 6.2 asociada a un controlador PID. La idea
principal es retroalimentar la señal de error er (s) = u(s) − v(s) a la parte integradora del

121
6.1. Mejoras sobre PID

u = f (v)
ysp (s) e(s) v(s) u(s) y(s)
gc (s) gp (s)
+
-

Figura 6.1: Sistema de control con restricción en la VM

e(s) PD

ysp (s) + v(s) f (v) u(s) y(s)


kC 1
τI s gp (s)
+ + +
- +
- +
1
er (s)
τR

Figura 6.2: Sistema de control PID con ARW (Retro-calculo)

PID, mediante una constante de tiempo τR , de forma tal de mitigar el volado de la integral
en caso de saturación. Cuando el controlador funciona normalmente, sin saturación, er (s) =
0 y la estrategia de AWR no tiene efecto en el cómputo de la señal final de control. La
velocidad con la que el integrador es “reseteado” está gobernada por la constante τR ,
denominada “constante de reseteo”. En general se elige τR = τI . En el siguiente ejemplo
se presenta esta metodologı́a y se compara con las propuestas clásicas.
Si el lector desea profundizar sobre estos conceptos de AWR y otras alternativas exis-
tentes, se recomienda la lectura de Åström and Rundqwist (1989) y Åström and Hägglun
(1995).

Ejemplo 6.1.1 (Antireset windup). En este ejemplo evaluaremos tres estrategias de con-
trol SISO: 1- PI clásico sin saturación en la VM, 2- PI clásico con saturación den la VM y
3- PI con estrategia AWR y saturación en la VM. El proceso considerado en este caso es la
planta simple gp (s) = 0.5/(s + 1) con unidades de tiempo en minutos. La saturación sobre
la VM en este caso tiene lı́mites ±1, por lo que el mayor cambio de setpoint permitido
es ±0.5 (si se desea un salida sin offset). Los parámetros de ajuste del PI son: kC = 8 y
τI = 1 y el setpoint deseado se propuso en 0.4.
En la Fig. 6.3 se presenta la comparación entre las tres estrategias de control. Las
Figs. 6.3(a)-6.3(b) muestran las respuestas de la VC y la VM, respectivamente. Se puede
observar que la estrategia sin saturación presenta la mayor energı́a de control permitiendo
una rápida respuesta de la salida hacia el valor de setpoint deseado. La estrategia con
saturación claramente muestra su VM “fija” en su lı́mite superior y permaneciendo sin
reacción aproximadamente hasta el minuto 4. Debido a esta saturación la VC presenta
una respuesta degradada en el seguimiento del setpoint. La estrategia con AWR permite
reducir la contribución del integrador sobre la señal v(s) (Fig. 6.3(c)) en el perı́odo de

122
6.1. Mejoras sobre PID

0.5 3.5
PI sin saturación
0.45 PI con saturación
3 PI con ARW
0.4

0.35 2.5

0.3
2

VMs
VCs

0.25
1.5
0.2

0.15 1
Setpoint
0.1
PI sin saturación
0.5
0.05 PI con saturación
PI con ARW
0 0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
Tiempo [min] Tiempo [min]

(a) Variables controladas (b) Variables manipuladas


2
PI con saturación
1.8 PI con ARW

1.6

1.4

1.2
Aporte integral

0.8

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tiempo [min]

(c) Contribución integral

Figura 6.3: Control PI con y sin ARW

saturación, permitiendo recuperar el control más rápidamente sin degradar el seguimiento


de setpoint.

6.1.2. Autoajuste

Muchos sistemas de control poseen la caracterı́stica de un auto ajuste (autotune) de


sus parámetros. Esto no se realiza de forma continua como en el caso de control adaptivo,
sino que el operador ejecuta el autotune cuando observa que el lazo de control se degradó
en su rendimiento.
El método más común para ajuste automático de los parámetros es el conocido como
“interruptor de relé” (relay switch), el cual se reduce a un control on/off. La evolución
oscilatoria producida sobre la VC se analiza para definir el ajuste.
Para explicar el proceso de autotune supongamos que trabajamos con variables en
forma de desviaciones (media cero) y que cuando queremos ajustar automáticamente los

123
6.1. Mejoras sobre PID

parámetros del PID aplicamos la siguiente señal de entrada al proceso:



umin , si e(s) < 0
u(s) = (6.2)
umax , si e(s) > 0

donde e(s) = ysp (s) − y(s) es el error de seguimiento y [umin , umax ] son los lı́mites ope-
rativos. En general se supone simetrı́a y podemos considerar umin = −h y umax = h. La
Ec. 6.2 asume que la ganancia del proceso es positiva, si por el contrario la ganancia de la
planta es negativa entonces se invierten las desigualdades en dicha ecuación.
En modo autotune el sistema a lazo cerrado oscila con una amplitud en la salida de
a y un “perı́odo último” de pu (tiempo entre picos). La “ganancia última” ku se puede
aproximar como:
4h
ku = (6.3)

De esta forma se pueden utilizar los criterios de Ziegler-Nichols discutidos en la Sec-
ción 3.3.1 para definir los parámetros del controlador. Es importante tener en cuenta que
este tipo de ajuste no es robusto y cualquier modificación posterior del proceso podrı́a ori-
ginar inestabilidad. Existen formas alternativas y más precisas para calcular la ganancia y
frecuencia última como sugiere Yu (2006) en su libro enteramente dedicado a estrategias
de autotune de PIDs.

6.1.3. PID con ajustes variantes en el tiempo


Existen diferentes propuestas para abordar el caso de diseño de estructuras PID con
parámetros de ajustes variantes en el tiempo como sugiere Bequette (2002). En este caso
no trataremos en detalle estas propuestas, simplemente mencionaremos algunas de ellas.
Una estrategia para modificar de forma continua la ganancia del PID y tener diferentes
ajustes que mejoren el rendimiento es considerar a dicha ganancia como una función que
depende del error de seguimiento:

kC = kC0 (1 + α|e(t)|) (6.4)

donde kC0 es el valor nominal de la ganancia del PID, e(t) = ysp (t) − y(t) es el error de
seguimiento y α es un parámetro para regular el impacto de la norma del error en la
ganancia.
Una estrategia PID con la ganancia definida como en la Ec. 6.4 se conoce como “PID
no lineal”, ya que la ley final de control contendrá el producto entre |e(t)| y e(t).
Otra estrategia denominada “controlador por zona” define que la ganancia del PID
varı́e según la función:  L

 kC , si e(t) < eL



kC = kC0 , si eL ≤ e(t) ≤ eH (6.5)




 H
kC , si e(t) > eH
donde generalmente kCL = kCH .
Otra propuesta para modificar de forma continua (por tramos) los parámetros del PID
es la denominada “control por ganancia tabulada”. Esta estrategia se basa en identificar
diferentes modelos del proceso para diferentes zonas de operación, generalmente dadas por
las excursiones de la VC, y ası́ definir diferentes conjuntos de parámetros de ajuste. Esto
nos generará diferentes controladores nominales entorno a los diferentes puntos operativos
identificados.

124
6.2. Control en cascada y en avance

d2 (s) d1 (s)
ysp1 (s) ysp2 (s) Proceso
+ +
gc1 (s) gc2 (s) gp2 (s) gp1 (s)
+ + + +
- - u(s)
Lazo Interno y2 (s)
Lazo Externo y1 (s)

Figura 6.4: Control en cascada

6.2. Control en cascada y en avance


La finalidad de las estructuras de control en cascada y en avance es la de mejorar el
comportamiento de los sistemas de control ante perturbaciones.

6.2.1. Control en cascada


Las estructuras de control en cascada poseen múltiples lazos de control, donde la salida
del controlador en el “lazo externo” (primario o maestro) es el set point de un controlador
en el “lazo interno” (secundario o esclavo). Esta configuración divide al proceso en dos
partes y por lo tanto se utilizan dos controladores diferentes, pero solo una variable de
proceso es manipulada (Bequette, 2002; Lipták, 2006).
En la Fig. 6.4 se puede observar una estructura de control en cascada donde el contro-
lador primario gc1 (s) se encarga de mantener a la VC primaria y1 (s) en su valor deseado
ysp1 (s) manipulando el set point ysp2 (s) del lazo secundario de control. El controlador
secundario gc2 (s) mantiene la VC secundaria y2 (s) en el valor deseado ysp2 (s) utilizando
la VM del proceso u(s).
Recordando las expresiones a lazo cerrado de la Ec. 3.5 y las correspondientes funciones
de sensibilidad, entonces podemos plantear las siguientes relaciones para el lazo interno
de control:

y2 (s) = T2 (s)ysp2 (s) + S2 (s)d2 (s)

L2 (s) = gp2 (s)gc2 (s),

S2 (s) = (1 + L2 (s))−1 ,

T2 (s) = L2 (s) (1 + L2 (s))−1

Entonces podemos expresar la VC primaria a lazo cerrado como:

L1 (s) S2 (s)gp1 (s) 1


y1 (s) = ysp1 (s) + d2 (s) + d1 (s) (6.6)
1 + L1 (s) 1 + L1 (s) 1 + L1 (s)

donde L1 (s) = gc1 (s)T2 (s)gp1 (s). claramente se puede observar como el lazo interno de
control afecta el lazo externo.
Es importante resaltar que si el lazo interno es mucho más rápido que el lazo ex-
terno, entonces T2 (s) = 1 en el contexto temporal del lazo externo, por lo cual L1 (s) =
gc1 (s)gp1 (s) y y1 (s) = T1 (s)ysp1 (s)+S1 (s)d1 (s). Lo que evidencia que en este caso los lazos
de control internos y externos pueden diseñarse de forma independientemente.
Las principales ventajas de una estructura de control en cascada son:

125
6.2. Control en cascada y en avance

Las perturbaciones del lazo secundario pueden rechazarse rápidamente antes de que
afecten el lazo principal.
El lazo primario de control puede reaccionar más rápido, resultando en una mejora
del rendimiento.
El lazo secundario de control permite reducir los efectos no lineales que observa el
lazo primario, i.e. válvulas.

Ejemplo 6.2.1 (Control en cascada). Consideremos el ejemplo que se muestra en Lipták


(2006), donde se desea diseñar un estructura de control en cascada como en la Fig. 6.4.
En este caso los subprocesos son:
e−20s 1
gp1 (s) = , gp2 (s) =
10s + 1 4s + 1
La idea general es comparar la estructura de control en cascada contra un lazo simple
de control entre u(s) e y1 (s). A continuación presentamos el diseño por separado.
Control simple (CS): si observamos el proceso de la Fig. 6.4 de forma global (u(s)–
y1 (s)), tenemos la siguiente transferencia entrada-salida,
e−20s
gpt (s) = .
(10s + 1)(4s + 1)
Si aplicamos los criterios de ajuste PID basado en IMC de la Sección 3.5, para
sistemas de segundo orden y sin información de retardo, tenemos el siguiente ajuste,
kC = 0.35, τI = 14, τD = 2.86
siendo λ = 40 ya que debe cumplirse que λ > θ, donde el retardo del proceso es
θ = 20.
Control en cascada (CC): analizando los subprocesos involucrados vemos que el pro-
ceso del lazo interno es más rápido que el proceso del lazo externo, ya que presentan
polos en −1/4 y −1/10, respectivamente. Por lo tanto, abordaremos el diseño de
forma independiente. Inicialmente para el lazo interno adoptaremos un control pro-
porcional, gc2 (s) = kc2 > 0, el cual genera la siguientes funciones de transferencia
de lazo directo y sensibilidad complementaria entre ysp2 (s) e y2 (s),
kc2 kc2 1
L2 (s) = , T2 (s) =  
4s + 1 (kc2 + 1) 4
(kc2 +1) s + 1

donde ahora el polo a lazo cerrado es −(kc2 + 1)/4.


Si elegimos por ejemplo, kc2 = 10, tenemos el lazo interno bajo control 10 veces
más rápido que el sistema a lazo abierto y prácticamente con la misma ganancia de
estado estacionario kc2 /(kc2 + 1) = 0.9091.
Pasamos ahora a diseñar el lazo externo, para el proceso gp1 (s), en este caso basado
en PI. Siguiendo los criterios de la Sección 3.5 para ajuste PI basado en IMC y sin
información del retardo, tenemos que
kC1 = 0.25, τC1 = 10
siendo λ = 40 y θ = 20 ya que debe cumplirse que λ > θ.

126
6.2. Control en cascada y en avance

1.8

1.6

1.4

VCs − Primarias
1.2

0.8

0.6

0.4
Set point
Control en cascada
0.2
Control simple
0
0 50 100 150 200 250 300 350 400 450 500
Tiempo [min]

Figura 6.5: Control en cascada y control simple

En la Fig. 6.5 se puede observar el comportamiento de la variable primaria de control,


y1 (t), cuando un cambio de set point unitario ocurre en t = 0 y secuencialmente en
t = 250 minutos ingresa una perturbación tipo escalón en d2 (t). En este caso se compara
la respuesta de la estructura de control en cascada (control proporcional + PI) y una
estrategia simple de control (PID). Se puede observar que ambas estructuras de control
poseen rendimientos comparables en el caso de seguimiento de la trayectoria de referencia.
La diferencia principal se observa en la velocidad de rechazo de la perturbación d2 (t) que
ingresa en el lazo interno, claramente el control en cascada reacciona rápidamente evitando
que dicha perturbación se propague hacia el lazo externo.

6.2.2. Control en avance


Cuando una perturbación afecta a un proceso bajo control por retroalimentación, es
necesario que la VC reaccione (se vea afectada) para que la VM se modifique tratando
de rechazar dicha perturbación. Cuando el tipo de perturbación lo permita, se puede
medir dicho efecto y tomar acciones de control en avance para mejorar el rechazo de
perturbaciones.
Cuando el control en avance se utiliza en solitario (sin control por retroalimentación),
su rendimiento está limitado por la incertidumbre del modelo del proceso (error de mode-
lado). Si no contamos con un modelo perfecto de la planta el control en avance no podrá
compensar la perturbación y la VC presentará offset.
En la Fig. 6.6 se presenta una estructura de control combinando control por retroali-
mentación y control en avance. Analizando este diagrama de bloques podemos plantear la
siguiente relación a lazo cerrado:
gp (s)gc (s) gp (s)gca (s) + gd (s)
y(s) = ysp (s) + d(s) (6.7)
1 + gp (s)gc (s) 1 + gp (s)gc (s)
Es importante notar de la Ec. 6.7 que si el controlador en avance, gca (s), es estable,
entonce la estabilidad a lazo cerrado no se ve afectada ya que no forma parte del polinomio
caracterı́stico.

127
6.2. Control en cascada y en avance

d(s)

gca (s) gd (s)

ysp (s) e(s) u2 (s) + +


y(s)
gc (s) gp (s)
+ + +
- u1 (s) u(s)

Figura 6.6: Control en avance

Asumiendo que trabajamos con las variables en su formato de desviaciones, entonces


para el caso ysp (s) = y(s) = 0, se debe cumplir que:

gp (s)gca (s) + gd (s)


0= d(s) (6.8)
1 + gp (s)gc (s)

de donde se desprende que el controlador en avance debe cumplir con:

gd (s)
gca (s) = − (6.9)
gp (s)

notar que la Ec. 6.9 requiere la inversión del modelo del proceso, lo cual puede traer
problemas si el proceso posee ceros no mı́nima fase o retardos.
Dependiendo de la estructura particular de los modelos gp (s) y gd (s), se pueden iden-
tificar los siguientes casos tı́picos de diseño:

Primer orden: si gp (s) = kp /(τp s + 1) y gd (s) = kd /(τd s + 1), entonces el controlador


en avance toma la forma,
kd (τp s + 1)
gca (s) = −
kp (τd s + 1)
que representa un controlador lead-lag (adelanto-atraso).

Primer orden con retardo: si gp (s) = kp e−θp s /(τp s + 1) y gd (s) = kd e−θd s /(τd s + 1),
entonces
kd (τp s + 1) −(θd −θp )s
gca (s) = − e
kp (τd s + 1)
que representa un controlador lead-lag en avance con retardo.
Es importante notar que en este caso se debe cumplir con la condición θd ≥ θp para
que el controlador sea realizable. Si esta condición no puede garantizarse, entonces
el controlador en avance debe diseñarse sin retardo y aceptar el error de modelado.

Proceso de mayor orden: cuando el modelo de gp (s) es de mayor orden que el modelo
de gd (s), entonces el controlador resulta impropio (no realizable). En este caso, se
puede anexar un filtro de orden adecuado para que gca (s) resulte propio o aproximar
gp (s) con un modelo de menor orden con la misma finalidad.

128
6.3. Control de relación, selectivo y de rango dividido

Producto A

yA ysB
FI X RC
yB
R u
FI

Producto B

Figura 6.7: Control de relación

Estático: en el caso de que gp (s) tenga mayor orden que gd (s) el controlador re-
sultante es no realizable (impropio), pero en el caso de que gp (s) tenga un cero no
mı́nima fase y gd (s) no, el controlador leag-lag resultante es inestable. En estos casos,
lo aconsejable es sólo utilizar la parte dinámica invertible de los modelos y aceptar
el error correspondiente, o más simple aún disñar un controlador en avance de tipo
estático gca (s) = −kd /kp y que el controlador por retroalimentación compense la
dinámica no modelada.

6.3. Control de relación, selectivo y de rango dividido


En la sección anterior discutimos las estrategias de control en cascada y en avance. El
propósito de estas estrategias de control es la de tomar ventaja de la existencia de medicio-
nes adicionales para mejorar el rechazo de perturbaciones. En esta sección, discutiremos
estrategias de control que también utilizan más de una medición y manipulan más de una
entrada. El control por relación (ratio control) es muy similar a la estrategia de control
en avance. El control selectivo y de anulación (selective and override control) involucran
la utilización de “selectores” para decidir la acción adecuada a realizar. La estrategia de
control por rango dividido es una estructura de control que utiliza más de una VM (en
este caso válvulas) para regular el proceso de forma adecuada.

6.3.1. Control de relación


Los sistemas de control por relación mantienen la fracción entre dos variables para
garantizar la regulación de una tercera variable. Este tipo de sistemas se utilizan prin-
cipalmente para mezclar ingredientes en un producto o como control de alimentación en
reactores. También se puede pensar a este tipo de control como una forma elemental de
control en avance (Lipták, 2006).
El control por relación se aplica casi exclusivamente a flujos. Consideremos que que-
remos mantener la relación de flujos R = yB /yA entre dos ingredientes A (libre o pertur-
bación) y B (controlado). La forma habitual de realizar esta tarea es medir el flujo de la
perturbación yA y calcular el setpoint para el flujo controlado yB vı́a la relación deseada
como ysB = RyA . La estructura de control en este caso simple se puede observar en la
Fig. 6.7, donde el control de relación (RC) puede ser un controlador PID clásico y la VM
comanda la apertura y cierre de la válvula.
Existe una forma alternativa de realizar la misma tarea discutida en el párrafo anterior.
Midiendo ambos flujos, se utiliza la relación instantánea, R = yB /yA , como una VC y se

129
6.3. Control de relación, selectivo y de rango dividido

fija el setpoint de relación deseado Rsp . Esta estrategia puede generar algunos problemas
de inestabilidad debido a la ganancia variable (cociente de flujos) en el lazo de control.
En el capı́tulo 2.23 de Lipták (2006) se pueden encontrar diversas aplicaciones indus-
triales de esta estrategia de control de relación o ratio control.

6.3.2. Control selectivo


En esta sección discutiremos algunas estrategias de control donde más de un contro-
lador puede manipular el mismo proceso y donde la selección del controlador activo se
realiza con alguna lógica predefinida. La conmutación de la salida del controlador se pue-
de realizar de forma fácil y suave con una variedad de hardware y software existente sin
problemas.
En las aplicaciones de control selectivo, los selectores de señal pueden elegir la de me-
nor valor, la de mayor valor o devolver el valor promedio de las variables involucradas.
Estos selectores están disponibles en la práctica en forma de hardware analógico o como
software en aplicaciones digitales tales como paquetes de control en los DCS. Generalmen-
te, las aplicaciones de control selectivo es una forma de control multivariable donde los
selectores facilitan la modificación en lı́nea de las estructuras de control en función de las
modificaciones de las condiciones de operación del proceso.
Las aplicaciones industriales de control selectivo incluyen (Lipták, 2006):

Mantener las variables dentro de los lı́mites de diseño para proteger los equipos del
proceso,

Arranque y parada de planta automático,

Protección contra diferentes tipos de fallos,

Selección de señales.

Configuración override (cancelación)

En la configuración override un controlador puede tomar el comando de una VM de


otro controlador para proteger al proceso y no sobrepasar ciertos lı́mites o restricciones
operativas. La estrategia de control por cancelación evita que algunas variables del proceso
alcancen una condición insegura, aunque quizás operando a un nivel subóptimo.
En la Fig. 6.8 se puede observar una estrategia de control override simple. El controla-
dor flujo (CF) se denomina “controlador normal”, mientras que el controlador de presión
(CP) es el “controlador override” de seguridad. En este ejemplo, la salida de los controla-
dores (uf y up ) alimentan un selector de baja señal, el cual selecciona la menor de las dos.
El setpoint del controlador override se selecciona como el valor máximo de presión que el
proceso puede tolerar (restricción suave), pero por debajo del valor de parada de planta
(restricción dura). Cuando la presión de vapor supere el setpoint predefinido, la salida del
controlador de presión decrecerá y cuando uf > up el controlador override será seleccio-
nado para controlar la presión en el punto de control. De esta forma el controlador por
cancelación previene que la presión supere el lı́mite deseado. Ambos controladores, de flujo
y de presión, requieren una retroalimentación externa (RE) o external feedback (EF) para
evitar la integración de sus errores cuando están inactivos. A continuación presentaremos
una estrategia de RE.

130
6.3. Control de relación, selectivo y de rango dividido

Controlador normal Controlador override

SP SP
uf < up Punto de
CF S CP IP
control
RE
IF
Flujo de vapor

Figura 6.8: Estrategia de control override (control por cancelación)

Antireset windup overrides


La acción integral (reset action) en un controlador PID probocará la saturación de su
salida, cuando está inactivo, ya que no tiene acceso sobre la VM. Cuando el controlador
experimenta este error sostenido en el tiempo, estamos hablando de “volado de la integral”
o “reset windup”. En el caso de estructuras override, esto ocurre debido a que un selector
elige una salida de un determinado controlador para operación y deja inactivos/anulados
a los restantes PIDs del lazo. En este caso, solo un controlador puede comandar la VM,
quedando las restantes salidas de los controladores bloqueados y tendiendo al volado de la
integral si no se toman acciones para limitar estos efectos integrales. Diversas estrategias
de anti-volado de la acción integral se pueden encontrar en los capı́tulos 2.2 y 2.23 de
Lipták (2006).
Recordemos, por ejemplo, la ley de control de un controlador PI:

kC
Z
u(t) = kC e(t) + e(t)dt (6.10)
τI

cuando el PI está en automático pero su salida, u(t), está bloqueada para comandar la VM
y el error e(t) no es cero, la acción integral producirá la saturación de la salida a 100 % o
0 % dependiendo de la acción del controlador.
En el dominio de Laplace la Ec. 6.10 se puede escribir como:

kC kC (τI s + 1)
u(s) = kC e(s) + e(s) = e(s) (6.11)
τI s τI s

y que a su vez se puede reescribir como:


1
u(s) = kC e(s) + u(s) (6.12)
(τI s + 1)

podemos ver que la salida del controlador u(s) consiste de una componente proporcional
(kC e(s)) y un término integral obtenido por retroalimentar u(s) a través de un primer
orden 1/(τI s + 1). Cuando e(s) no es cero, u(s) crece (o decrece) hacia sus lı́mites por
medio del lazo de retroalimentación positiva del primer orden.
Una forma de limitar este volado de la integral es mediante la interrupción de este lazo
interno de retroalimentación y utilizar una señal de “retroalimentación externa”, ure (s),
del siguiente modo:
1
u(s) = kC e(s) + ure (s) (6.13)
(τI s + 1)

131
6.3. Control de relación, selectivo y de rango dividido

100

Válvulas - uc y uh ( %) uc uh

0 50 100
Salida del controlador - u ( %)

Figura 6.9: Estrategia de control por rango dividido

Para el caso simple de la Fig. 6.8, la señal externa puede ser la señal que comanda la
válvula tomada a la salida del selector. Cuando el controlador está activo (seleccionado),
la señal de retroalimentación es su propia salida, u(s) = ure (s), y cuando no se selecciona
(anulado), la señal de retroalimentación es la salida de otro controlador seleccionado. En
este último caso, el controlador anulado sigue la señal de control del controlador activo.

Configuración selectivo (selective)

La estrategia de control selectivo es muy similar a la estrategia override, pero en este


caso, el control selectivo se focaliza en coordinar y seleccionar diferentes señales. Su objeti-
vo es el diseño de la lógica detrás de la estrategia de control. Ejemplos de tales estrategias
selectivas se pueden encontrar en la selección de múltiples sensores redundantes, donde
se puede aplicar un criterio de valor medio, máximo o mı́nimo, dependiendo del caso de
aplicación o la selección de múltiples alimentaciones a un proceso con diferentes disponi-
bilidades. En el capı́tulo 2.23 de Lipták (2006) se pueden encontrar varias aplicaciones de
las estrategias mencionadas aquı́.

6.3.3. Control por rango dividido


La estrategia de control por rango dividido generalmente se utiliza cuando con un
único controlador pretendemos manipular dos elementos finales de control (por ejemplo
válvulas). En otras palabras, queremos controlar una única VC con dos VMs. Las apli-
caciones tı́picas de control por rango dividido se encuentran en el campo de control de
temperatura, pero no son las únicas.
El concepto de control por rango dividido es fácil de comprender cuando utilizamos
un ejemplo de aplicación de un control de temperatura. Supongamos que un proceso
necesita ser calentado, con el flujo comandado por la válvula uh , o enfriado, con el flujo
comandado por la válvula uc , dependiendo de la temperatura del producto medida en
el proceso. Este podrı́a ser el ejemplo de un reactor, donde se mide la temperatura de
reacción y se manipulan los flujos de calentamiento/enfriamiento de la camisa.
Supongamos que el rango (0-100 %) de la señal de salida del controlador de temperatura
u se divide entre dos válvulas (enfriamiento y calentamiento). Entonces podrı́amos plantear
el siguiente algoritmo de control por rango dividido:

132
6.3. Control de relación, selectivo y de rango dividido

Sı́ 0 % ≤ u ≤ 50 % entonces uc = 100 − 2u y uh = 0,

Sı́ 50 % < u ≤ 100 % entonces uc = 0 y uh = 2(u − 50),

Es decir, si 0 % ≤ u ≤ 50 % entonces opera la válvula de enfriamiento y la válvula


de calentamiento permanece cerrada. Si 50 % ≤ u ≤ 100 %, entonces opera la válvula de
calentamiento y la válvula de enfriamiento permanece cerrada. Como se muestra en la
Fig. 6.9.
Uno de los problemas que puede aparecer en este tipo de configuración es que el sistema
puede estar conmutando continuamente entre los modos de enfriamiento y calentamiento
cuando u ≈ 50 %. Una forma de evitar este comportamiento indeseado es agregar una
pequeña “zona muerta” ajustando el rango de enfriamiento a [0,49] % y el de calentamiento
a [51,100] %.

133
Apéndices

135
Apéndice A
Teorı́a de sistemas lineales, matrices y nor-
mas

En este capı́tulo resumiremos alguno resultados importantes de la teorı́a de sistemas


lineales, los cuales serán de utilidad en diferentes secciones del documento. Para mayores
detalles se puede consultar a Skogestad and Postlethwaite (2005).

A.1. Modelo en espacio de estados


Una forma natural de representar sistemas fı́sicos es mediante modelos en espacio de
estados no lineales de la forma
ẋ(t) = f (x(t), u(t))
(A.1)
y(t) = g(x(t), u(t))
donde y es el vector de salidas de ny × 1, u es el vector de salidas de nu × 1, x es el vector
de estados de nx × 1 y ẋ(t) = dx(t)/dt.
Los modelos en espacio de estados lineales pueden derivarse de los modelos no lineales
de la Ec.A.1 mediante estrategias de linealización como se discutieron en el Capı́tulo 2.
Si suponemos que las variables representan desviaciones respecto de algún punto ope-
rativo, podemos expresar:
ẋ(t) = Ax(t) + Bu(t)
(A.2)
y(t) = Cx(t) + Du(t)
donde A, B, C y D son matrices reales.
Es importante notar que la representación en la Ec. A.2 no es única, es decir pueden
existir diferentes realizaciones con igual comportamiento entrada-salida. Esta representa-
ción nos permite definir
h i
y(s) = C (sI − A)−1 B + D u(s) = Gp (s)u(s) (A.3)

que es la representación en matriz de funciones de transferencia en el dominio de Laplace.


Ahora bien, recordando la expresión de la inversa de una matriz, podemos expresar
entonces:
1
y(s) = [Cadj (sI − A) B + D det (sI − A)] u(s) (A.4)
det (sI − A)
Notar que por propiedad del determinante y de los autovalores, resulta:
nx
Y nx
Y
det (sI − A) = λi (sI − A) = [s − λi (A)] (A.5)
i=1 i=1

137
A.2. Controlabilidad y observabilidad de estado

Toda representación de la forma en la Ec. A.2 posee representación en funciones de


transferencia, pero lo inverso no siempre es verdadero. Por ejemplo funciones de transfe-
rencia con retardos temporales o funciones impropias no poseen representación en espacio
de estados.

A.2. Controlabilidad y observabilidad de estado


Definición A.2.1 (Controlabilidad de estado). El sistema dinámico ẋ(t) = Ax(t)+Bu(t),
o el par (A, B), se dice que es estado controlable sı́, para cualquier estado inicial x(0) = x0 ,
tiempo t1 > 0 y estado final x1 , existe una entrada u(t) tal que x(t1 ) = x1 . En otro caso
el sistema no es estado controlable.
Hay muchas formas de verificar si un sistema es estado controlable. Una de ellas es
comprobar si la matriz de controlabilidad C tiene rango pleno por filas, rango(C) = nx ,
donde la matriz de controlabilidad se define como:
h i
C = B AB A2 B . . . A(nx −1) B (A.6)

En palabras, si un sistema es estado controlable, entonces podemos utilizar su entrada


u para llevarlo desde cualquier estado inicial hasta cualquier estado final en un perı́odo de
tiempo finito. La capacidad de control del estado, por lo tanto, parece ser una propiedad
importante para cuestiones de control, pero en realidad presenta algunas deficiencias en
este sentido (Skogestad and Postlethwaite, 2005):
1. No nos brinda información del comportamiento de los estados en puntos intermedios
y posteriores,
2. Las entradas requeridas pueden presentar valores muy elevados y con cambios abrup-
tos,
3. Algunos estados pueden carecer de importancia práctica,
4. La definición no provee un grado de controlabilidad.
En Skogestad and Postlethwaite (2005) se presenta un ejemplo que aborda los dos
primeros puntos, donde claramente queda demostrado que la condición de controlabilidad
de estado no implica que el sistema sea controlable en un sentido práctico. Esto se debe
a que la controlabilidad de estado se enfoca en el valor de los estados en ciertos valores
discretos de tiempo, mientras que en la mayorı́a de los casos prácticos se requiere que las
salidas se mantengan cerca de los valores deseados (trayectorias de referencia) para todos
los valores de tiempo y sin utilizar magnitudes inapropiadas en las entradas.
Definición A.2.2 (Observabilidad de estado). El sistema dinámico ẋ(t) = Ax(t)+Bu(t),
y(t) = Cx(t) + Du(t) o el par (A, C), se dice que es estado observable sı́, para cualquier
t1 > 0 el estado inicial x(0) = x0 se puede determinar en función de la historia de las
señales de entrada u(t) y de salida y(t) en el intervalo [0, t1 ]. En otro caso el sistema se
dice no observable.
El sistema (A, C) se dice observable sı́ y solo sı́ la matriz de observabilidad
 
C
 CA 
O= .. (A.7)
 

 . 
CA(nx −1)

138
A.3. Estabilidad

posee rango pleno por columnas, rango(O) = nx .

A.3. Estabilidad
Existen varias formas de definir la estabilidad, afortunadamente para sistemas lineales
invariantes en el tiempo estas diferencias no son de mayor importancia.
Definición A.3.1 (Estabilidad interna). Un sistema se dice “estable internamente” si
ninguno de sus componentes presentan modos ocultos inestables y si excitamos al sistema
con señales externas acotadas, en cualquier lugar del sistema, obtenemos como respuesta
señales de salida acotadas si las medimos en cualquier lugar del sistema.
Definición A.3.2 (Estado estabilizable, estado detectable y modos ocultos inestables).
Un sistema es “estado estabilizable” si todo los modos ocultos son estado controlables.
Un sistema es “estado detectable”, si todos los modos ocultos son estado observables. Un
sistema con modos no detectables y no estabilizables se dice que contiene modos ocultos
no estables.
Un sistema lineal (A, B) es estado estabilizable sı́ y solo sı́ existe una matriz F tal
que A + BF es estable. Esto es, existe una retroalimentación de estado u = Fx tal que el
sistema resulta estable. De forma similar, el sistema (A, C) es estado detectable sı́ y solo
sı́ existe una matriz L tal que A + LC es estable.

A.4. Polos
Por simplicidad, definiremos los polos de un sistema en términos de los autovalores
de la matriz de espacio de estados A. De forma más general los polos de una matriz de
funciones de transferencia Gp (s) pueden definirse como los valores de s = p donde Gp (p)
posee una singularidad.
Definición A.4.1 (Polos). Los polos pi de un sistema con una representación de espacio
de estados como la de la Ec. A.1 son los autovalores λi (A), con i = 1 . . . nx , de la matriz
A. El “polinomio caracterı́stico” se define como
nx
Y
φ(s) = det (sI − A) = (s − pi )
i=1

y los polos son las raı́ces de la “ecuación caracterı́stica”:


φ(s) = det (sI − A) = 0
Teorema A.4.1 (Polos y estabilidad). Un sistema lineal ẋ(t) = Ax(t) + Bu(t) es estable
sı́ y solo sı́, todos los polos se encuentran en el semiplano izquierdo, es decir Re {λi (A)} <
0, ∀i. Una matriz A con estas caracterı́sticas se denomina estable o Hurwitz.

A.5. Ceros
Definición A.5.1 (Ceros). zi es un cero de Gp (s) si el rango de Gp (z
Qi )z es menor que el
rango normal de Gp (s). El polinomio de ceros se define como z(s) = ni=1 (s − zi ), donde
nz es un número finito de ceros de Gp (s).
Estos ceros también se denominan “ceros de transmisión” o “ceros multivariables”,
pero aquı́ los llamaremos simplemente ceros.

139
A.6. Direcciones de polos y ceros

A.6. Direcciones de polos y ceros


En lo que sigue consideraremos a s como un valor complejo fijo y a Gp (s) como una
matriz a valores complejos.

A.6.1. Direcciones de ceros


Supongamos que Gp (s) posee un cero en s = z, entonces Gp (s) pierde rango en s = z
y existirán vectores no nulos uz e yz tal que

Gp (z)uz = 0 yzT Gp (z) = 0 (A.8)

donde uz es la dirección cero de entrada e yz es la dirección cero de salida.


Normalmente trabajamos con variables normalizadas de forma tal que ||uz ||2 = 1 y
||yz ||2 = 1. Desde el punto de vista práctico, la dirección yz es más útil que la dirección
de entrada, ya que yz nos brinda información de las salidas, o combinación de estas, que
pueden presentar problemas para los fines de control.
En principio podemos obtener tanto uz como yz de la descomposición en valores sin-
gulares del proceso, Gp (z) = UΣVT , tenemos que uz es la última columna de V e yz la
última columna de U, correspondiente con el valor singular nulo de Gp (z).

A.6.2. Direcciones de polos


Supongamos que Gp (s) posee un polo en s = p, entonces Gp (p) es infinito y podemos
escribir de forma aproximada que:

Gp (p)up = ∞ ypT Gp (p) = ∞ (A.9)

donde up es la dirección del polo de entrada e yp es la dirección del polo de salida.


De forma similar que para el caso de ceros, tanto tanto up como yp se pueden obtener
de la descomposición en valores singulares del proceso, Gp (p) = UΣVT . Donde up corres-
ponde a la primera columna de V e yp la primera columna de U, correspondiente con el
valor singular infinito de Gp (p).

A.7. Comentarios adicionales sobre polos y ceros


1. Los ceros resultantes de una realización mı́nima, son usualmente denominados “ceros
de transmisión”. Si no tenemos una realización mı́nima, entonces el cálculo de los
ceros (por ejemplo vı́a Matlab) puede producir “ceros invariantes” adicionales. Estos
ceros invariantes más los ceros de transmisión conforman lo que se denominan “ceros
del sistema”. Los ceros invariantes pueden subdividirse en ceros de desacople de
entrada y salida. Estos ceros cancelan polos asociados con estados no controlables y
no observables y por lo tanto poseen muy poca importancia práctica. Se recomienda
encontrar una realización mı́nima, antes de calcular los ceros.

2. Para sistemas cuadrados con una matriz D no singular, el número de polos es el


mismo que el número de ceros y los ceros de Gp (s) son los polos de Gp (s)−1 y
viceversa.

3. No existen ceros si las salidas poseen información completa de los estados, por ejem-
plo C = I y D = 0.

140
A.8. Normas

4. Los polos pueden moverse mediante control por retroalimentación. Por ejemplo, una
planta estrictamente propia, Gp (s) = C (sI − A)−1 B, los polos pueden determinarse
mediante el polinomio caracterı́stico a lazo abierto φLA (s) = det (sI − A). Si retro-
alimentamos este proceso con la ley de control u(s) = −Ky(s) entonces los polos
ahora vienen dados por el polinomio caracterı́stico φLC (s) = det (sI − A + BKC).

5. La locación de un cero y su dirección de salida no son afectadas por la retroalimen-


tación.

A.8. Normas
Es muy útil contar con un único número escalar para cuantificar la dimensión de un
vector, de una matriz, de una señal o de un sistema. En estos casos se utilizan funciones
denominadas “normas”.

Definición A.8.1 (Norma). Sea e un vector, matriz, señal o sistema, entonces su norma
definida como ||e|| es un número real que satisface las siguientes propiedades:

No negativa: ||e|| ≥ 0,

Positiva: ||e|| = 0 ⇔ e = 0,

Homogénea: ||αe|| = |α| · ||e||, para todo complejo escalar α,

Desigualdad triangular: ||e1 + e2 || ≤ ||e1 || + ||e2 ||.

A.8.1. Norma para vectores


Consideremos un vector e = [e1 , e2 , . . . , em ]T , con m componentes reales (o complejas).
Entonces, podemos definir las siguientes normas vectoriales:

Norma-1: también llamada “norma suma”


m
X
||e||1 = |ei |
i=1

Norma-2: también llamada “norma euclidiana”


v
um
uX
||e||2 = t |ei |2
i=1

Norma-∞: también llamada “norma máximo”

||e||∞ = ||e||max = máx |ei |


i

siendo |ei | el valor absoluto de la i-ésima componente del vector e.

141
A.8. Normas

A.8.2. Norma para matrices


Consideraremos matrices constantes E de dimensión (m × n) a valores reales (o com-
plejos). El ij-ésimo elemento de E lo denotamos como eij .

Definición A.8.2 (Norma matricial). La norma ||E|| aplicada sobre la matriz E se con-
sidera una “norma matricial” si, además de cumplir con las propiedades de la Defini-
ción A.8.1, cumple con la propiedad multiplicativa siguiente:

||AB|| ≤ ||A|| · ||B||

también denominada condición de consistencia.

Toda norma matricial que cumple con los criterios de la Definición A.8.1, pero no
satisface la condición de consistencia en la Definición A.8.2 se denomina “norma matricial
generalizada”.
Podemos definir las siguientes normas para matrices:

Norma suma: es la suma de las magnitudes de los elementos


m X
X n
||E||sum = |eij |
i=1 j=1

Norma de Frobenius: también llamada “norma euclidiana”,


v
um X n
uX q q sX
||E||F = t 2 T T
|eij | = tr (EE ) = tr (E E) = σi2 (E)
i=1 j=1 i

donde tr(·) es la función traza y σi (E) el i-ésimo valor singular de la matriz E.

Norma máximo: es la mágnitud del máximo elemento

||E||max = máx |eij |


ij

es importante notar que esta norma no es una norma matricial ya que no cumple
con la condición de consistencia en la Definición A.8.2.

A.8.3. Norma inducida para matrices


Las normas inducidas para matrices son muy importantes ya que están relacionadas con
la ganancia en sistemas. Supongamos la relación multivariable de entrada-salida y = Eu,
donde u es el vector de entradas e y es el vector de salidas. La ganancia de este sistema
esta vinculada con la relación ||y||/||u||.
La máxima ganancia del sistema para cualquier dirección de entrada está dada por la
norma matricial inducida:
||Eu||p
||E||ip = máx
u6=0 ||u||p

donde ||u||p = ( i |ui |p )1/p denota la norma-p vectorial.


P

Dependiendo de p podemos tener las siguientes normas inducidas:

142
Bibliografı́a

Norma máxima suma por columnas:


!
X
||E||i1 = máx |eij |
j
i

Norma máxima suma por filas:


 
X
||E||i∞ = máx  |eij |
i
j

Norma espectral: también llamada del máximo valor singular


q
||E||i2 = σ (E) = ρ (ET E)

donde ρ ET E = máxi |λi ET E |, el autovalor de ET E con la magnitud más gran-


 

de.

Es importante notar que las tres normas inducidas anteriores cumplen con la condición
de consistencia en la Definición A.8.2, con lo cual son ademas normas matriciales.
En Skogestad and Postlethwaite (2005) el lector encontrará varias relaciones que vin-
culan los diferentes tipos de normas con los valores singulares, ası́ como también literatura
especı́fica para profundizar estos temas.

143
Bibliografı́a

K. Åström and T. Hägglun. PID Controllers: Theory, Design, and Tuning. ISA, 2nd
edition, 1995.

K. Åström and L. Rundqwist. Integrator windup and how to avoid it. American Control
Conference, IEEE, pages 1693–1698, 1989.

V. Alstad and S. Skogestad. Null space method for selecting optimal measurement com-
binations as controlled variables. Industrial & Engineering Chemistry Research, 46:
846/853, 2007.

W. Assali and T. McAvoy. Optimal selection of dominant measurements and manipulated


variables for production control. Industrial & Engineering Chemistry Research, 49:
7832–7842, 2010.

S. Bahakim and L. Ricardez-Sandoval. Simultaneous design and MPC-based control for


dynamic systems under uncertainty: A stochastic approach. Computers and Chemical
Engineering, 63:66–81, 2014.

B. W. Bequette. Process Control: Modeling, Design, and Simulation. Prentice-Hall, 2002.

L. Braccia, P. Marchetti, P. Luppi, and D. Zumoffen. Multivariable control structure design


based on mixed-integer quadratic programming. Industrial & Engineering Chemistry
Research, 56:11228–11244, 2017.

L. Braccia, P. Marchetti, P. Luppi, and D. Zumoffen. A sequential integration between op-


timal flexible heat exchanger network synthesis and control structure design. Industrial
& Engineering Chemistry Research, 57:11094–11111, 2018.

E. Bristol. On a new measure of interaction for multivariable process control. IEEE


Transactions on Automatic Control, 1966.

J. Chang and C. Yu. Relative disturbance gain array. AIChE Journal, 38:521–534, 1992.

J. Chang and C. Yu. Synthesis of controller structures for robust load performance. Int.
J. Control., 60:1353–1369, 1994.

J. Downs and S. Skogestad. An industrial and academic perspective on plantwide control.


Anual Reviews in Control, 35:99–110, 2011.

J. Downs and E. Vogel. A plant-wide industrial process control problem. Comput. Chem.
Eng., 17(3):245–255, 1992.

C. Garcia and M. Morari. Internal model control. 2. design procedure for multivariable
systems. Ind. Eng. Chem. Process Des. Dev., 24:472–484, 1985.

145
Bibliografı́a

P. Grosdidier, M. Morari, and B. Holt. Closed-loop properties from steady-state gain


information. Ind. Eng. Chem. Res., 24:221–235, 1985.

M.J. He, W.J. Cai, W. Ni, and L.H. Xie. RNGA based control system configuration for
multivariable processes. Journal of Process Control, 19:1036–1042, 2009.

B. Holt and M. Morari. Design of resilient processing plants. v. the effect od deadtime on
dynamic resilience. Chem. Eng. Sci., 40:1229–1237, 1985.

R. Horn and C. Johnson. Matrix analysis. Cambridge University Press: New York, 1990.

A. Jha and O. Okorafor. Optimal plantwide process control applied to the Tennessee
Eastman problem. Industrial Engineering & Chemistry Research, 53:738–751, 2014.

A. Khaki-Sedigh and B. Moaveni. Control Configuration Selection for Multivariable Plants.


Springer-Verlag Berlin Heidelberg, 2009.

B. G. Lipták. Process Control and Optimization. Instrument Engineers Handbook. CRC


Press. Taylor & Francis Group, 4th edition, 2006.

L. Ljung. System Identification: Theory for the User. Prentice-Hall, 2nd edition, 1999.

P. Luppi, L. Braccia, P. Rullo, and D. Zumoffen. Plantwide control design based on the
control allocation approach. Industrial & Engineering Chemistry Research, 57:268–282,
2018.

W. L. Luyben, M. L. Luyben, and B. D. Tyreus. Plantwide Process Control. McGraw-Hill,


1998.

J. Maciejowski. Predictive Control With Constraints. Prentice Hall, 2002.

A. Marchetti and D. Zumoffen. Self-optimizing control structures with minimum number


of process-dependent controlled variables. Industrial & Engineering Chemistry Research,
53:10177–10193, 2014.

M. Morari and E. Zafiriou. Robust Process Control. Prentice-Hall, 1989.

M. Munir, W. Yu, and B. Young. Plant-wide control: Eco-efficiency and control loop
configuration. ISA Transactions, 52:162–169, 2013.

K. Ogata. Modern Control Engineering. Prentice Hall, 5th edition, 2010.

G. P. Rangaiah and V. Kariwala. Plantwide Control: Recent Developments and Applica-


tions. John Wiley and Sons Ltd, 2012.

M. Sharifzadeh. Integration of process design and control: A review. Chemical Engineering


Research and Design, 91:2515–2549, 2013.

M. Sharifzadeh and N. Thornhill. Optimal selection of control structure using a steady-


state inverselly controlled process model. Computers and Chemical Engineering, 39:
126–138, 2012.

S. Skogestad. Control structure design for complete chemical plants. Comput. Chem.
Eng., 28:219–25534, 2004.

146
Bibliografı́a

S. Skogestad and M. Morari. Implications of large RGA elements on control performance.


Ind. Eng. Chem. Res., 26:2323–2330, 1987.

S. Skogestad and I. Postlethwaite. Multivariable Feedback Control: Analysis and Design.


John Wiley and Sons Ltd, 2nd edition, 2005.

C.C. Yu. Autotuning of PID controllers: A Relay Feedback Approach. Springer-Verlag,


2nd edition, 2006.

Z. Yuan, B. Chen, and J. Zhao. Effect of manipulated variables selection on the con-
trollability of chemical processes. Industrial & Engineering Chemistry Research, 50:
7403–7413, 2011.

D. Yue and F. You. Stackelberg-game-based modeling and optimization for supply chain
design and operations: A mixed integer bilevel programming framework. Comput. Chem.
Eng., 102:81–95, 2017.

D. Zumoffen. Oversizing analysis in plant-wide control design for industrial processes.


Computers and Chemical Engineering, 59:145–155, 2013.

D. Zumoffen. Plant-wide control design based on steady-state combined indexes. ISA


Transactions, 60:191–205, 2016.

D. Zumoffen and M. Basualdo. Monitoreo, Detección de Fallas y Control de Procesos


Industriales. Asociación Argentina de Control Automático, 2010.

D. Zumoffen and M. Basualdo. Improvements on multiloop control design via net load
evaluation. Computers and Chemical Engineering, 59:54–70, 2013.

D. Zumoffen and D. Feroldi. Analyzing plant-wide control structures for industrial proces-
ses, pages 27–68. Nova Science Publishers Inc. USA, 2014.

D. Zumoffen, L. Braccia, and A. Marchetti. Economic plant-wide control design with


backoff estimations using internal model control. Journal of Process Control, 40:93–105,
2016.

147

También podría gustarte